This media is not supported in your browser
VIEW IN TELEGRAM
Google удивляет — их новейшая нейронка Gemini 2.0 Flash Thinking теперь доступна абсолютно бесплатно в Colab.
Новинка умеет:
• Читать и анализировать текст прямо из вашего блокнота.
• Давать рекомендации по оптимизации кода.
• Отвечать на вопросы за считанные секунды.
• Работать без всяких дополнительных настроек и без ВПН.
Попробуйте новую технологию — попробуйте здесь!
Новинка умеет:
• Читать и анализировать текст прямо из вашего блокнота.
• Давать рекомендации по оптимизации кода.
• Отвечать на вопросы за считанные секунды.
• Работать без всяких дополнительных настроек и без ВПН.
Попробуйте новую технологию — попробуйте здесь!
This media is not supported in your browser
VIEW IN TELEGRAM
Если вы давно мечтали задействовать LLM для действительно полезных задач, есть интересная находка — вот ссылка:
https://huggingface.co/spaces/Trudy/gemini-image-to-code
Что происходит? Просто подкидываете нейронке картинку или даже мем, а она превращает его в интерактивное мини-код-приложение, словно читая мысли!
Помните: в АИ-проектах самое главное — это реальная польза и практические результаты. Наслаждайтесь экспериментами и делитесь впечатлениями!
https://huggingface.co/spaces/Trudy/gemini-image-to-code
Что происходит? Просто подкидываете нейронке картинку или даже мем, а она превращает его в интерактивное мини-код-приложение, словно читая мысли!
Помните: в АИ-проектах самое главное — это реальная польза и практические результаты. Наслаждайтесь экспериментами и делитесь впечатлениями!
Сэм Альтман поделился горячими новостями из OpenAI:
• GPT-4.5 (Orion) уже на подходе — ждите её в ближайшие недели. И да, это будет последняя модель без цепочки рассуждений (non-chain-of-thought) 🚀
• GPT-5 объединит в себе лучшие черты o-series и GPT-series, станет супер-универсальной и будет доступна как в приложении, так и через API 🌐
• Модель o3 больше не увидим — её заменит именно GPT-5!
Доступ к GPT-5:
• Бесплатным пользователям ChatGPT достанется стандартная версия;
• Для подписчиков Plus — улучшенная версия;
• А подписчики Pro получат премиум версию с голосовыми функциями, canvas, поиском, deep research и множеством других фишек 😎
ИТОГО:
• GPT-4.5 — уже через пару недель;
• GPT-5 — ожидается через несколько месяцев.
• GPT-4.5 (Orion) уже на подходе — ждите её в ближайшие недели. И да, это будет последняя модель без цепочки рассуждений (non-chain-of-thought) 🚀
• GPT-5 объединит в себе лучшие черты o-series и GPT-series, станет супер-универсальной и будет доступна как в приложении, так и через API 🌐
• Модель o3 больше не увидим — её заменит именно GPT-5!
Доступ к GPT-5:
• Бесплатным пользователям ChatGPT достанется стандартная версия;
• Для подписчиков Plus — улучшенная версия;
• А подписчики Pro получат премиум версию с голосовыми функциями, canvas, поиском, deep research и множеством других фишек 😎
ИТОГО:
• GPT-4.5 — уже через пару недель;
• GPT-5 — ожидается через несколько месяцев.
Вот вам история, как no-code превращается в настоящий кодовый кошмар! 🚀
Энтузиаст без знаний Python запустил хобби-проект всего из 30+ файлов, используя лишь AI-помощников Cursor и Claude. Всё шло отлично, пока волшебство не сменилось хаосом 🤯 – циклы-дубликаты, забытые импорты, и ИИ, словно заблудившийся турист, начинает стирать строки и ломать логику.
Разработчик, наблюдая за этим хаосом, в панике пытается улучшить контекст, чинить код. Когда задачи просты, кажется, что код пишется сам. Но как только начинаешь усложнять – волшебная vibe-разработка уступает место реальной: баги, дебаг и боль 😅.
Мораль: Надо быть осторожным с no-code экспериментами – иногда за идеальным фасадом скрываются подводные камни! 🔧😎
Энтузиаст без знаний Python запустил хобби-проект всего из 30+ файлов, используя лишь AI-помощников Cursor и Claude. Всё шло отлично, пока волшебство не сменилось хаосом 🤯 – циклы-дубликаты, забытые импорты, и ИИ, словно заблудившийся турист, начинает стирать строки и ломать логику.
Разработчик, наблюдая за этим хаосом, в панике пытается улучшить контекст, чинить код. Когда задачи просты, кажется, что код пишется сам. Но как только начинаешь усложнять – волшебная vibe-разработка уступает место реальной: баги, дебаг и боль 😅.
Мораль: Надо быть осторожным с no-code экспериментами – иногда за идеальным фасадом скрываются подводные камни! 🔧😎
This media is not supported in your browser
VIEW IN TELEGRAM
Гуманойдный робот G1 удивил интернет своим плавным танцем – настоящий футуристический балет! 🤖💃
Или, как вариант, можно назвать его «звездой авито»: ведь заказать его с доставкой в Москву теперь можно за 2 млн. рублей, что примерно соответствует Lada Vesta в топовой комплектации! 🚗💰
Или, как вариант, можно назвать его «звездой авито»: ведь заказать его с доставкой в Москву теперь можно за 2 млн. рублей, что примерно соответствует Lada Vesta в топовой комплектации! 🚗💰
Если DeepSeek опять подводит, не отчаивайтесь – есть спасательный круг! 🚀 В веб-версии и приложении он стабильно "лежит", а официальный API перегружен. Но вот лайфхак – попробуйте @deepseeksbot в Telegram! 😊
Наткнулся на этого умного бота, и он отвечает мгновенно, без нервотрёпки, даже с длинными запросами. Раньше приходилось обновлять страницу десятки раз в браузере, а тут – спросил, и сразу получил результат! 💡💻
Если устали ждать бесконечно, юзайте бота и забудьте о долгом ожидании! 😉👍
Наткнулся на этого умного бота, и он отвечает мгновенно, без нервотрёпки, даже с длинными запросами. Раньше приходилось обновлять страницу десятки раз в браузере, а тут – спросил, и сразу получил результат! 💡💻
Если устали ждать бесконечно, юзайте бота и забудьте о долгом ожидании! 😉👍
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Представляем Animate Anyone 2 — инструмент, который позволяет заменить персонажей в видео всего по одному изображению. 🎥✨
Пока что исходники и модельки в открытом доступе отсутствуют, но будем надеяться, что скоро это изменится. И, конечно, хотелось бы, чтобы для работы с этой технологией нам не потребовался сверхмощный кластер с тоннами видеопамяти. 🤞💻
Следите за обновлениями и ждите больше подробностей, а пока мечтаем, как будем экспериментировать с этой игрушкой! 😄
👉 Подробнее тут…
Пока что исходники и модельки в открытом доступе отсутствуют, но будем надеяться, что скоро это изменится. И, конечно, хотелось бы, чтобы для работы с этой технологией нам не потребовался сверхмощный кластер с тоннами видеопамяти. 🤞💻
Следите за обновлениями и ждите больше подробностей, а пока мечтаем, как будем экспериментировать с этой игрушкой! 😄
👉 Подробнее тут…
🔍 LangChain: Создайте свой AI за считаные строки!
Погружаемся в мир возможностей с LangChain — фреймворком для работы с языковыми моделями. 🚀 Если вам когда-либо хотелось сделать своего собственного ChatGPT, этот инструмент станет вашим незаменимым помощником!
Основная статья: https://habr.com/ru/articles/729664/
🧩 LangChain строится по принципу лего, где все компоненты — от базовых моделей до сложных систем — идеально сочетаются друг с другом.
Ключевые компоненты:
- Модели: Поддержка множества языковых моделей через API OpenAI, Cohere, Hugging Face и другие. 🧠
- Промпты: Гибкие функции для генерации и форматирования промптов. 💬
- Индексы: Оптимизируйте взаимодействие с языковыми моделями через структурированные документы. 🗂️
- Цепочки: Комбинируйте модели и запросы для многоступенчатых операций — от ведения диалогов до суммаризаций. ⚙️
- Агенты: Доступ к информации в реальном времени из различных источников, таких как Google и Wikipedia. 📚
- Память: Сохранение состояния для ведения интеллектуальных разговоров. Долгосрочная и краткосрочная память улучшит ваш чат-бот. 🕰️
Внедряем эти инструменты на практике! Например, подключаем свою базу данных через модуль Indexes и использую LLM для генерации ответов. 📊📈 Пробуем различные модели, такие как ChatGPT или его разновидности на основе альпаки, с помощью Prompts. 🌟
Погружаемся в мир возможностей с LangChain — фреймворком для работы с языковыми моделями. 🚀 Если вам когда-либо хотелось сделать своего собственного ChatGPT, этот инструмент станет вашим незаменимым помощником!
Основная статья: https://habr.com/ru/articles/729664/
🧩 LangChain строится по принципу лего, где все компоненты — от базовых моделей до сложных систем — идеально сочетаются друг с другом.
Ключевые компоненты:
- Модели: Поддержка множества языковых моделей через API OpenAI, Cohere, Hugging Face и другие. 🧠
- Промпты: Гибкие функции для генерации и форматирования промптов. 💬
- Индексы: Оптимизируйте взаимодействие с языковыми моделями через структурированные документы. 🗂️
- Цепочки: Комбинируйте модели и запросы для многоступенчатых операций — от ведения диалогов до суммаризаций. ⚙️
- Агенты: Доступ к информации в реальном времени из различных источников, таких как Google и Wikipedia. 📚
- Память: Сохранение состояния для ведения интеллектуальных разговоров. Долгосрочная и краткосрочная память улучшит ваш чат-бот. 🕰️
Внедряем эти инструменты на практике! Например, подключаем свою базу данных через модуль Indexes и использую LLM для генерации ответов. 📊📈 Пробуем различные модели, такие как ChatGPT или его разновидности на основе альпаки, с помощью Prompts. 🌟
Forwarded from Industrial_AI
ИИ сдался! Испытание показало границы машинного разума
⌛️ ИИ провалили тест ARC-AGI-2 на общий интеллект. Даже продвинутые модели, включая GPT-4.5, Claude 3.7 Sonnet и Gemini 2.0 Flash, не набрали более 1 %.
💭 Тест Arc Prize Foundation, созданный Франсуа Шолле, оценивает способность ИИ распознавать визуальные закономерности без опоры на прошлый опыт.
🔗 Люди показали 60 % верных ответов — намного выше, чем машины. Разрыв между интеллектом ИИ и человека сохраняется.
ℹ️ Шолле отметил, что ARC-AGI-2 исключает решение «грубой силой» и требует понимания паттернов. Грег Камрадт добавил: важна не только точность, но и эффективность обучения.
Arc Prize Foundation объявила конкурс Arc Prize 2025: цель — 85 % точности при затратах не более ₽38 на задачу. Пока это недостижимо.
#AI_industrial_news #ЦифроваяТрансформация #ТрендыТехнологий
#AI_industrial_news #ЦифроваяТрансформация #ТрендыТехнологий
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from SevaTech🍏
На заводах Mercedes работают роботы! 🚗 🤖
Сейчас роботов Apollo обучают тому, что делают обычные сотрудники🎓 , но в будущем хотят полностью их автоматизировать 🔧
Кстати, у китайской компании Zeekr уже есть целая армия роботов, которые работают полностью автономно💪 🤖
👨💻 SevaTech - Подписаться
Сейчас роботов Apollo обучают тому, что делают обычные сотрудники
Кстати, у китайской компании Zeekr уже есть целая армия роботов, которые работают полностью автономно
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✨ ТОП-5 нейросетей 2025 года ✨
1. DeepSeek-R1 🇨🇳
Китайский гений логики и аналитики
🔥 Фишка: Решает задачи уровня PhD за секунды, генерирует код и анализирует Big Data.
🎯 Для кого: Разработчики, учёные, финансисты.
💡 Лайфхак: Бесплатен для некоммерческих проектов!
2. Suno 5.0🎸
Музыкальный алхимик
🔥 Фишка: Создаёт треки по голосовому запросу ("Хочу джаз с нотками дождя!").
🎯 Для кого: Подкастеры, режиссеры, артисты.
⚠️ Но: Русский язык иногда с неверным ударением.
3. Sora Turbo (OpenAI) 🎬
Видео-волшебник от OpenAI
🔥 Фишка: Генерирует 4K-ролики до 5 минут с динамичным сюжетом.
🎯 Для кого: Блогеры, рекламщики, геймдев.
💸 Цена: $20/мес через ChatGPT Platinum.
4. Gemini Flash 2.5 🌐🧠
Мультимодальный монстр от Google
🔥 Фишка: Обработка файлов размером с «Войну и мир».
🎯 Для кого: Дизайнеры, преподаватели, бизнес-аналитики.
🤯 Секрет: Загрузите черновик презентации в Google Docs — ИИ сам создаст инфографику и анимацию. 📊
5. Claude 3.7 (Anthropic) 📜
Мудрец для текстов
🔥 Фишка: Пишет диссертации, проверяет контракты и... сочиняет стихи!
🎯 Для кого: Юристы, писатели, журналисты.
🌍 Плюс: Лучшее понимание славянских языков среди ИИ.
🧠 Какую нейросеть возьмёте на вооружение? Делимся в комментах! 👇
Больше материала по схожей теме здесь: https://www.tgoop.com/+1Uz6BlfkUSpiMzBi
Подписывайтесь на канал!
1. DeepSeek-R1 🇨🇳
Китайский гений логики и аналитики
🔥 Фишка: Решает задачи уровня PhD за секунды, генерирует код и анализирует Big Data.
🎯 Для кого: Разработчики, учёные, финансисты.
💡 Лайфхак: Бесплатен для некоммерческих проектов!
2. Suno 5.0🎸
Музыкальный алхимик
🔥 Фишка: Создаёт треки по голосовому запросу ("Хочу джаз с нотками дождя!").
🎯 Для кого: Подкастеры, режиссеры, артисты.
⚠️ Но: Русский язык иногда с неверным ударением.
3. Sora Turbo (OpenAI) 🎬
Видео-волшебник от OpenAI
🔥 Фишка: Генерирует 4K-ролики до 5 минут с динамичным сюжетом.
🎯 Для кого: Блогеры, рекламщики, геймдев.
💸 Цена: $20/мес через ChatGPT Platinum.
4. Gemini Flash 2.5 🌐🧠
Мультимодальный монстр от Google
🔥 Фишка: Обработка файлов размером с «Войну и мир».
🎯 Для кого: Дизайнеры, преподаватели, бизнес-аналитики.
🤯 Секрет: Загрузите черновик презентации в Google Docs — ИИ сам создаст инфографику и анимацию. 📊
5. Claude 3.7 (Anthropic) 📜
Мудрец для текстов
🔥 Фишка: Пишет диссертации, проверяет контракты и... сочиняет стихи!
🎯 Для кого: Юристы, писатели, журналисты.
🌍 Плюс: Лучшее понимание славянских языков среди ИИ.
🧠 Какую нейросеть возьмёте на вооружение? Делимся в комментах! 👇
Больше материала по схожей теме здесь: https://www.tgoop.com/+1Uz6BlfkUSpiMzBi
Подписывайтесь на канал!
👋 Привет, коллеги!
Мы сейчас активно работаем над @HubFusion_bot – AI-ассистентом в Telegram для работы с информацией. 🤖 Бот позволяет вам загружать свои документы (PDF, TXT), чтобы потом задавать вопросы по их содержимому, или просто пообщаться с LLM на любые темы. 💬
Бот находится на стадии доработки, и чтобы сделать его действительно полезным для вас, нам очень нужны ваши впечатления и конструктивная обратная связь. 🙏
Ваш вклад бесценен: помогая нам сейчас, вы не только участвуете в создании удобного инструмента, но и получаете особые условия.
✨ В благодарность за предоставленную конструктивную обратную связь, мы подарим вам неограниченный бесплатный доступ к боту. ✨
Как вы можете помочь: 👇
👉 Перейдите в @HubFusion_bot
📁 Загрузите несколько своих документов.
❓ Попробуйте задать вопросы по содержимому или пообщайтесь с LLM.
✍️ Поделитесь своими мыслями: что работает хорошо, что вызывает сложности, какие функции были бы полезны? Вы можете написать фидбэк прямо в чате с ботом @HubFusionSupportBot.
Будем очень рады, если вы присоединитесь и поделитесь своим опытом. Ваш взгляд со стороны критически важен для нас!
Попробовать: @HubFusion_bot
Техподдержка и обратную связь вы можете оставить в @HubFusionSupportBot
Подписывайтесь на канал, чтобы быть в курсе событий: https://www.tgoop.com/hubfusion
Спасибо большое за Вашу помощь!🙌
Мы сейчас активно работаем над @HubFusion_bot – AI-ассистентом в Telegram для работы с информацией. 🤖 Бот позволяет вам загружать свои документы (PDF, TXT), чтобы потом задавать вопросы по их содержимому, или просто пообщаться с LLM на любые темы. 💬
Бот находится на стадии доработки, и чтобы сделать его действительно полезным для вас, нам очень нужны ваши впечатления и конструктивная обратная связь. 🙏
Ваш вклад бесценен: помогая нам сейчас, вы не только участвуете в создании удобного инструмента, но и получаете особые условия.
✨ В благодарность за предоставленную конструктивную обратную связь, мы подарим вам неограниченный бесплатный доступ к боту. ✨
Как вы можете помочь: 👇
👉 Перейдите в @HubFusion_bot
📁 Загрузите несколько своих документов.
❓ Попробуйте задать вопросы по содержимому или пообщайтесь с LLM.
✍️ Поделитесь своими мыслями: что работает хорошо, что вызывает сложности, какие функции были бы полезны? Вы можете написать фидбэк прямо в чате с ботом @HubFusionSupportBot.
Будем очень рады, если вы присоединитесь и поделитесь своим опытом. Ваш взгляд со стороны критически важен для нас!
Попробовать: @HubFusion_bot
Техподдержка и обратную связь вы можете оставить в @HubFusionSupportBot
Подписывайтесь на канал, чтобы быть в курсе событий: https://www.tgoop.com/hubfusion
Спасибо большое за Вашу помощь!
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
hubfusion.pro | CHATGPT | БАЗЫ ЗНАНИЙ | НЕЙРОСЕТИ | IT
Канал посвященный развитию сервиса с нейросетями CHATGPT @HubFusion_bot
Сервис - https://hubfusion.pro/
Техническая поддержка, предложения: @HubFusionSupportBot
Сервис - https://hubfusion.pro/
Техническая поддержка, предложения: @HubFusionSupportBot
Forwarded from Industrial_AI
Grok обзавелся зрением: теперь он видит мир через вашу камеру!
👁 ИИ-стартап xAI Илона Маска запустил Grok Vision. Эта функция позволяет наводить камеру телефона на объекты и получать ответы на вопросы о том, что находится в поле зрения.
🖥 Новый инструмент доступен в приложении на iOS, для Android пока нет. Пользователи могут навести камеру на продукты, документы и другие объекты, а Grok предоставит контекст и необходимую информацию.
🌐 Бота снабдили голосовым режимом с поддержкой мультиязычности и поиска в реальном времени. Ранее xAI добавила в Grok возможность запоминать разговоры и давать персонализированные ответы.
#AI_industrial_news
#ТрендыТехнологий
#ЦифроваяТрансформация
#AI_industrial_news
#ТрендыТехнологий
#ЦифроваяТрансформация
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня разбираем глубокое обучение для архитектуры Transformer на примере модели GPT и рассказываем, как самому обучить аналогичную модель! 🤖💥
1. Архитектура модели
Модель GPT основана на классическом Transformer-декодере 🚀. Основные компоненты:
• Embedding слой для слов и позиции (position embeddings) 🔤
• Несколько блоков self-attention с multi-head механизмом (например, 8 голов) 👀
• Feed-forward сети с активацией GELU, layer normalization и residual connections для стабилизации обучения 🧠
• Итоговый linear слой для предсказания следующего токена 🔮
Пример размерности:
- Количество слоёв: 6-12
- Размер эмбеддинга: 256-512
- Размер feed-forward скрытого слоя: примерно 2048 (в зависимости от архитектуры)
- Dropout: 0.1 для предотвращения переобучения 🚧
2. Подготовка данных для обучения
Нам понадобится большой корпус текстовых данных. Например, можно использовать датасеты вроде WikiText, OpenWebText или собственный корпус новостей! 📚
Важно: перед обучением – токенизация с использованием Byte Pair Encoding (BPE) или похожего метода. Библиотека Hugging Face Transformers поможет удобно настроить токенизатор и загрузить датасет. 🛠️
Пример подготовки данных на Python:
3. Процесс обучения
Основной цикл обучения построен так:
• Прямой проход модели по батчу (forward pass) через Transformer.
• Вычисление loss с использованием cross-entropy между предсказанными токенами и истинными знаками – задача языкового моделирования 🔥.
• Обратное распространение ошибки (backpropagation) для обновления весов ✨.
• Использование оптимизатора AdamW с понижением learning rate по schedule (например, cosine decay или linear warmup) 🌟.
4. Гиперпараметры и эксперименты
• Batch size: 16-32 (в зависимости от GPU памяти)
• Learning rate: 0.0005-0.001 с warmup (например, первые 500 шагов)
• Количество эпох: от 5 до 20 для предварительных экспериментов
Можно экспериментировать с количеством слоёв, размером эмбеддинга и числом attention голов – это основа для поиска лучшей архитектуры! 🔍💡
5. Ресурсы и библиотеки
Используйте открытые библиотеки: Hugging Face Transformers, PyTorch или TensorFlow для быстрой реализации. Удачным стартом может стать пример из репозитория Hugging Face – там много документации и туториалов по fine-tuning и обучению с нуля! 👍
Вот такой подробный взгляд на процесс создания и обучения GPT модели наподобие! Делитесь своими экспериментами! 😊🚀💻
1. Архитектура модели
Модель GPT основана на классическом Transformer-декодере 🚀. Основные компоненты:
• Embedding слой для слов и позиции (position embeddings) 🔤
• Несколько блоков self-attention с multi-head механизмом (например, 8 голов) 👀
• Feed-forward сети с активацией GELU, layer normalization и residual connections для стабилизации обучения 🧠
• Итоговый linear слой для предсказания следующего токена 🔮
Пример размерности:
- Количество слоёв: 6-12
- Размер эмбеддинга: 256-512
- Размер feed-forward скрытого слоя: примерно 2048 (в зависимости от архитектуры)
- Dropout: 0.1 для предотвращения переобучения 🚧
2. Подготовка данных для обучения
Нам понадобится большой корпус текстовых данных. Например, можно использовать датасеты вроде WikiText, OpenWebText или собственный корпус новостей! 📚
Важно: перед обучением – токенизация с использованием Byte Pair Encoding (BPE) или похожего метода. Библиотека Hugging Face Transformers поможет удобно настроить токенизатор и загрузить датасет. 🛠️
Пример подготовки данных на Python:
python
from transformers import GPT2TokenizerFast
tokenizer = GPT2TokenizerFast.from_pretrained("gpt2") # или собственная модель
sample_text = "Пример текста для обучения модели."
tokens = tokenizer.encode(sample_text)
print("Токены:", tokens)
3. Процесс обучения
Основной цикл обучения построен так:
• Прямой проход модели по батчу (forward pass) через Transformer.
• Вычисление loss с использованием cross-entropy между предсказанными токенами и истинными знаками – задача языкового моделирования 🔥.
• Обратное распространение ошибки (backpropagation) для обновления весов ✨.
• Использование оптимизатора AdamW с понижением learning rate по schedule (например, cosine decay или linear warmup) 🌟.
4. Гиперпараметры и эксперименты
• Batch size: 16-32 (в зависимости от GPU памяти)
• Learning rate: 0.0005-0.001 с warmup (например, первые 500 шагов)
• Количество эпох: от 5 до 20 для предварительных экспериментов
Можно экспериментировать с количеством слоёв, размером эмбеддинга и числом attention голов – это основа для поиска лучшей архитектуры! 🔍💡
5. Ресурсы и библиотеки
Используйте открытые библиотеки: Hugging Face Transformers, PyTorch или TensorFlow для быстрой реализации. Удачным стартом может стать пример из репозитория Hugging Face – там много документации и туториалов по fine-tuning и обучению с нуля! 👍
Вот такой подробный взгляд на процесс создания и обучения GPT модели наподобие! Делитесь своими экспериментами! 😊🚀💻
Собрали подборку лучших ИИ экспертов, и энтузиастов в IT и нейросетях
👇👇👇
ЗАБРАТЬ ПАПКУ
В этой подборке — всё, что реально решает:
Но ты не вечен. И эта подборка — тоже.
Папка исчезнет. А возможность уйдёт к тем, кто не тупил.
Пока ты "думаешь" — другие подключают ИИ к бизнесу и делают результат.
Забери папку и адаптируйся. Или… оставайся в 2021.
Будущее не ждёт. Забирай. Подключайся. Действуй.
Хочешь в папку? Напиши @alinakatimtelezhku
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ИИ 30.04
Алина| Катим Тележку🛒|Папки взаимопиара invites you to add the folder “ИИ 30.04”, which includes 30 chats.
Neural Networks | Нейронные сети pinned «⚡️ ИИ захватывает всё. Кто не в теме — тот зритель на обочине😭 Собрали подборку лучших ИИ экспертов, и энтузиастов в IT и нейросетях 🔥 👇👇👇 ЗАБРАТЬ ПАПКУ В этой подборке — всё, что реально решает: ✔️ Чек-листы, которые ускоряют тебе работу в 10 раз ✔️ Каналы…»
Привет, друзья!🔥
Собрали для вас— годную подборочку каналов по:
ИИ/IT/Нейросетям📱
Что в папке?
✔️ Обзоры ИИ-сервисов и нейросетей
✔️ Каналы с подборками полезных AI-инструментов
✔️ Автоматизация задач для бизнеса и личных проектов
✔️ Примеры использования технологий в маркетинге, дизайне, продажах
✔️ Новости и аналитика из мира IT и инноваций
Хочешь быть в тренде ИИ волны, и остаться конкурентным в 21 веке?
Тогда ты знаешь, что делать👇
https://www.tgoop.com/addlist/Ya28f7txYuY4MjVi
Хочешь в папку? Сюда
Собрали для вас— годную подборочку каналов по:
ИИ/IT/Нейросетям
Что в папке?
Хочешь быть в тренде ИИ волны, и остаться конкурентным в 21 веке?
Тогда ты знаешь, что делать👇
https://www.tgoop.com/addlist/Ya28f7txYuY4MjVi
Хочешь в папку? Сюда
Please open Telegram to view this post
VIEW IN TELEGRAM