Если DeepSeek опять подводит, не отчаивайтесь – есть спасательный круг! 🚀 В веб-версии и приложении он стабильно "лежит", а официальный API перегружен. Но вот лайфхак – попробуйте @deepseeksbot в Telegram! 😊
Наткнулся на этого умного бота, и он отвечает мгновенно, без нервотрёпки, даже с длинными запросами. Раньше приходилось обновлять страницу десятки раз в браузере, а тут – спросил, и сразу получил результат! 💡💻
Если устали ждать бесконечно, юзайте бота и забудьте о долгом ожидании! 😉👍
Наткнулся на этого умного бота, и он отвечает мгновенно, без нервотрёпки, даже с длинными запросами. Раньше приходилось обновлять страницу десятки раз в браузере, а тут – спросил, и сразу получил результат! 💡💻
Если устали ждать бесконечно, юзайте бота и забудьте о долгом ожидании! 😉👍
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Представляем Animate Anyone 2 — инструмент, который позволяет заменить персонажей в видео всего по одному изображению. 🎥✨
Пока что исходники и модельки в открытом доступе отсутствуют, но будем надеяться, что скоро это изменится. И, конечно, хотелось бы, чтобы для работы с этой технологией нам не потребовался сверхмощный кластер с тоннами видеопамяти. 🤞💻
Следите за обновлениями и ждите больше подробностей, а пока мечтаем, как будем экспериментировать с этой игрушкой! 😄
👉 Подробнее тут…
Пока что исходники и модельки в открытом доступе отсутствуют, но будем надеяться, что скоро это изменится. И, конечно, хотелось бы, чтобы для работы с этой технологией нам не потребовался сверхмощный кластер с тоннами видеопамяти. 🤞💻
Следите за обновлениями и ждите больше подробностей, а пока мечтаем, как будем экспериментировать с этой игрушкой! 😄
👉 Подробнее тут…
🔍 LangChain: Создайте свой AI за считаные строки!
Погружаемся в мир возможностей с LangChain — фреймворком для работы с языковыми моделями. 🚀 Если вам когда-либо хотелось сделать своего собственного ChatGPT, этот инструмент станет вашим незаменимым помощником!
Основная статья: https://habr.com/ru/articles/729664/
🧩 LangChain строится по принципу лего, где все компоненты — от базовых моделей до сложных систем — идеально сочетаются друг с другом.
Ключевые компоненты:
- Модели: Поддержка множества языковых моделей через API OpenAI, Cohere, Hugging Face и другие. 🧠
- Промпты: Гибкие функции для генерации и форматирования промптов. 💬
- Индексы: Оптимизируйте взаимодействие с языковыми моделями через структурированные документы. 🗂️
- Цепочки: Комбинируйте модели и запросы для многоступенчатых операций — от ведения диалогов до суммаризаций. ⚙️
- Агенты: Доступ к информации в реальном времени из различных источников, таких как Google и Wikipedia. 📚
- Память: Сохранение состояния для ведения интеллектуальных разговоров. Долгосрочная и краткосрочная память улучшит ваш чат-бот. 🕰️
Внедряем эти инструменты на практике! Например, подключаем свою базу данных через модуль Indexes и использую LLM для генерации ответов. 📊📈 Пробуем различные модели, такие как ChatGPT или его разновидности на основе альпаки, с помощью Prompts. 🌟
Погружаемся в мир возможностей с LangChain — фреймворком для работы с языковыми моделями. 🚀 Если вам когда-либо хотелось сделать своего собственного ChatGPT, этот инструмент станет вашим незаменимым помощником!
Основная статья: https://habr.com/ru/articles/729664/
🧩 LangChain строится по принципу лего, где все компоненты — от базовых моделей до сложных систем — идеально сочетаются друг с другом.
Ключевые компоненты:
- Модели: Поддержка множества языковых моделей через API OpenAI, Cohere, Hugging Face и другие. 🧠
- Промпты: Гибкие функции для генерации и форматирования промптов. 💬
- Индексы: Оптимизируйте взаимодействие с языковыми моделями через структурированные документы. 🗂️
- Цепочки: Комбинируйте модели и запросы для многоступенчатых операций — от ведения диалогов до суммаризаций. ⚙️
- Агенты: Доступ к информации в реальном времени из различных источников, таких как Google и Wikipedia. 📚
- Память: Сохранение состояния для ведения интеллектуальных разговоров. Долгосрочная и краткосрочная память улучшит ваш чат-бот. 🕰️
Внедряем эти инструменты на практике! Например, подключаем свою базу данных через модуль Indexes и использую LLM для генерации ответов. 📊📈 Пробуем различные модели, такие как ChatGPT или его разновидности на основе альпаки, с помощью Prompts. 🌟
Forwarded from Industrial_AI
ИИ сдался! Испытание показало границы машинного разума
⌛️ ИИ провалили тест ARC-AGI-2 на общий интеллект. Даже продвинутые модели, включая GPT-4.5, Claude 3.7 Sonnet и Gemini 2.0 Flash, не набрали более 1 %.
💭 Тест Arc Prize Foundation, созданный Франсуа Шолле, оценивает способность ИИ распознавать визуальные закономерности без опоры на прошлый опыт.
🔗 Люди показали 60 % верных ответов — намного выше, чем машины. Разрыв между интеллектом ИИ и человека сохраняется.
ℹ️ Шолле отметил, что ARC-AGI-2 исключает решение «грубой силой» и требует понимания паттернов. Грег Камрадт добавил: важна не только точность, но и эффективность обучения.
Arc Prize Foundation объявила конкурс Arc Prize 2025: цель — 85 % точности при затратах не более ₽38 на задачу. Пока это недостижимо.
#AI_industrial_news #ЦифроваяТрансформация #ТрендыТехнологий
#AI_industrial_news #ЦифроваяТрансформация #ТрендыТехнологий
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from SevaTech🍏
На заводах Mercedes работают роботы! 🚗 🤖
Сейчас роботов Apollo обучают тому, что делают обычные сотрудники🎓 , но в будущем хотят полностью их автоматизировать 🔧
Кстати, у китайской компании Zeekr уже есть целая армия роботов, которые работают полностью автономно💪 🤖
👨💻 SevaTech - Подписаться
Сейчас роботов Apollo обучают тому, что делают обычные сотрудники
Кстати, у китайской компании Zeekr уже есть целая армия роботов, которые работают полностью автономно
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
✨ ТОП-5 нейросетей 2025 года ✨
1. DeepSeek-R1 🇨🇳
Китайский гений логики и аналитики
🔥 Фишка: Решает задачи уровня PhD за секунды, генерирует код и анализирует Big Data.
🎯 Для кого: Разработчики, учёные, финансисты.
💡 Лайфхак: Бесплатен для некоммерческих проектов!
2. Suno 5.0🎸
Музыкальный алхимик
🔥 Фишка: Создаёт треки по голосовому запросу ("Хочу джаз с нотками дождя!").
🎯 Для кого: Подкастеры, режиссеры, артисты.
⚠️ Но: Русский язык иногда с неверным ударением.
3. Sora Turbo (OpenAI) 🎬
Видео-волшебник от OpenAI
🔥 Фишка: Генерирует 4K-ролики до 5 минут с динамичным сюжетом.
🎯 Для кого: Блогеры, рекламщики, геймдев.
💸 Цена: $20/мес через ChatGPT Platinum.
4. Gemini Flash 2.5 🌐🧠
Мультимодальный монстр от Google
🔥 Фишка: Обработка файлов размером с «Войну и мир».
🎯 Для кого: Дизайнеры, преподаватели, бизнес-аналитики.
🤯 Секрет: Загрузите черновик презентации в Google Docs — ИИ сам создаст инфографику и анимацию. 📊
5. Claude 3.7 (Anthropic) 📜
Мудрец для текстов
🔥 Фишка: Пишет диссертации, проверяет контракты и... сочиняет стихи!
🎯 Для кого: Юристы, писатели, журналисты.
🌍 Плюс: Лучшее понимание славянских языков среди ИИ.
🧠 Какую нейросеть возьмёте на вооружение? Делимся в комментах! 👇
Больше материала по схожей теме здесь: https://www.tgoop.com/+1Uz6BlfkUSpiMzBi
Подписывайтесь на канал!
1. DeepSeek-R1 🇨🇳
Китайский гений логики и аналитики
🔥 Фишка: Решает задачи уровня PhD за секунды, генерирует код и анализирует Big Data.
🎯 Для кого: Разработчики, учёные, финансисты.
💡 Лайфхак: Бесплатен для некоммерческих проектов!
2. Suno 5.0🎸
Музыкальный алхимик
🔥 Фишка: Создаёт треки по голосовому запросу ("Хочу джаз с нотками дождя!").
🎯 Для кого: Подкастеры, режиссеры, артисты.
⚠️ Но: Русский язык иногда с неверным ударением.
3. Sora Turbo (OpenAI) 🎬
Видео-волшебник от OpenAI
🔥 Фишка: Генерирует 4K-ролики до 5 минут с динамичным сюжетом.
🎯 Для кого: Блогеры, рекламщики, геймдев.
💸 Цена: $20/мес через ChatGPT Platinum.
4. Gemini Flash 2.5 🌐🧠
Мультимодальный монстр от Google
🔥 Фишка: Обработка файлов размером с «Войну и мир».
🎯 Для кого: Дизайнеры, преподаватели, бизнес-аналитики.
🤯 Секрет: Загрузите черновик презентации в Google Docs — ИИ сам создаст инфографику и анимацию. 📊
5. Claude 3.7 (Anthropic) 📜
Мудрец для текстов
🔥 Фишка: Пишет диссертации, проверяет контракты и... сочиняет стихи!
🎯 Для кого: Юристы, писатели, журналисты.
🌍 Плюс: Лучшее понимание славянских языков среди ИИ.
🧠 Какую нейросеть возьмёте на вооружение? Делимся в комментах! 👇
Больше материала по схожей теме здесь: https://www.tgoop.com/+1Uz6BlfkUSpiMzBi
Подписывайтесь на канал!
👋 Привет, коллеги!
Мы сейчас активно работаем над @HubFusion_bot – AI-ассистентом в Telegram для работы с информацией. 🤖 Бот позволяет вам загружать свои документы (PDF, TXT), чтобы потом задавать вопросы по их содержимому, или просто пообщаться с LLM на любые темы. 💬
Бот находится на стадии доработки, и чтобы сделать его действительно полезным для вас, нам очень нужны ваши впечатления и конструктивная обратная связь. 🙏
Ваш вклад бесценен: помогая нам сейчас, вы не только участвуете в создании удобного инструмента, но и получаете особые условия.
✨ В благодарность за предоставленную конструктивную обратную связь, мы подарим вам неограниченный бесплатный доступ к боту. ✨
Как вы можете помочь: 👇
👉 Перейдите в @HubFusion_bot
📁 Загрузите несколько своих документов.
❓ Попробуйте задать вопросы по содержимому или пообщайтесь с LLM.
✍️ Поделитесь своими мыслями: что работает хорошо, что вызывает сложности, какие функции были бы полезны? Вы можете написать фидбэк прямо в чате с ботом @HubFusionSupportBot.
Будем очень рады, если вы присоединитесь и поделитесь своим опытом. Ваш взгляд со стороны критически важен для нас!
Попробовать: @HubFusion_bot
Техподдержка и обратную связь вы можете оставить в @HubFusionSupportBot
Подписывайтесь на канал, чтобы быть в курсе событий: https://www.tgoop.com/hubfusion
Спасибо большое за Вашу помощь!🙌
Мы сейчас активно работаем над @HubFusion_bot – AI-ассистентом в Telegram для работы с информацией. 🤖 Бот позволяет вам загружать свои документы (PDF, TXT), чтобы потом задавать вопросы по их содержимому, или просто пообщаться с LLM на любые темы. 💬
Бот находится на стадии доработки, и чтобы сделать его действительно полезным для вас, нам очень нужны ваши впечатления и конструктивная обратная связь. 🙏
Ваш вклад бесценен: помогая нам сейчас, вы не только участвуете в создании удобного инструмента, но и получаете особые условия.
✨ В благодарность за предоставленную конструктивную обратную связь, мы подарим вам неограниченный бесплатный доступ к боту. ✨
Как вы можете помочь: 👇
👉 Перейдите в @HubFusion_bot
📁 Загрузите несколько своих документов.
❓ Попробуйте задать вопросы по содержимому или пообщайтесь с LLM.
✍️ Поделитесь своими мыслями: что работает хорошо, что вызывает сложности, какие функции были бы полезны? Вы можете написать фидбэк прямо в чате с ботом @HubFusionSupportBot.
Будем очень рады, если вы присоединитесь и поделитесь своим опытом. Ваш взгляд со стороны критически важен для нас!
Попробовать: @HubFusion_bot
Техподдержка и обратную связь вы можете оставить в @HubFusionSupportBot
Подписывайтесь на канал, чтобы быть в курсе событий: https://www.tgoop.com/hubfusion
Спасибо большое за Вашу помощь!
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
hubfusion.pro | CHATGPT | БАЗЫ ЗНАНИЙ | НЕЙРОСЕТИ | IT
Канал посвященный развитию сервиса с нейросетями CHATGPT @HubFusion_bot
Сервис - https://hubfusion.pro/
Техническая поддержка, предложения: @HubFusionSupportBot
Сервис - https://hubfusion.pro/
Техническая поддержка, предложения: @HubFusionSupportBot
Forwarded from Industrial_AI
Grok обзавелся зрением: теперь он видит мир через вашу камеру!
👁 ИИ-стартап xAI Илона Маска запустил Grok Vision. Эта функция позволяет наводить камеру телефона на объекты и получать ответы на вопросы о том, что находится в поле зрения.
🖥 Новый инструмент доступен в приложении на iOS, для Android пока нет. Пользователи могут навести камеру на продукты, документы и другие объекты, а Grok предоставит контекст и необходимую информацию.
🌐 Бота снабдили голосовым режимом с поддержкой мультиязычности и поиска в реальном времени. Ранее xAI добавила в Grok возможность запоминать разговоры и давать персонализированные ответы.
#AI_industrial_news
#ТрендыТехнологий
#ЦифроваяТрансформация
#AI_industrial_news
#ТрендыТехнологий
#ЦифроваяТрансформация
Please open Telegram to view this post
VIEW IN TELEGRAM
Сегодня разбираем глубокое обучение для архитектуры Transformer на примере модели GPT и рассказываем, как самому обучить аналогичную модель! 🤖💥
1. Архитектура модели
Модель GPT основана на классическом Transformer-декодере 🚀. Основные компоненты:
• Embedding слой для слов и позиции (position embeddings) 🔤
• Несколько блоков self-attention с multi-head механизмом (например, 8 голов) 👀
• Feed-forward сети с активацией GELU, layer normalization и residual connections для стабилизации обучения 🧠
• Итоговый linear слой для предсказания следующего токена 🔮
Пример размерности:
- Количество слоёв: 6-12
- Размер эмбеддинга: 256-512
- Размер feed-forward скрытого слоя: примерно 2048 (в зависимости от архитектуры)
- Dropout: 0.1 для предотвращения переобучения 🚧
2. Подготовка данных для обучения
Нам понадобится большой корпус текстовых данных. Например, можно использовать датасеты вроде WikiText, OpenWebText или собственный корпус новостей! 📚
Важно: перед обучением – токенизация с использованием Byte Pair Encoding (BPE) или похожего метода. Библиотека Hugging Face Transformers поможет удобно настроить токенизатор и загрузить датасет. 🛠️
Пример подготовки данных на Python:
3. Процесс обучения
Основной цикл обучения построен так:
• Прямой проход модели по батчу (forward pass) через Transformer.
• Вычисление loss с использованием cross-entropy между предсказанными токенами и истинными знаками – задача языкового моделирования 🔥.
• Обратное распространение ошибки (backpropagation) для обновления весов ✨.
• Использование оптимизатора AdamW с понижением learning rate по schedule (например, cosine decay или linear warmup) 🌟.
4. Гиперпараметры и эксперименты
• Batch size: 16-32 (в зависимости от GPU памяти)
• Learning rate: 0.0005-0.001 с warmup (например, первые 500 шагов)
• Количество эпох: от 5 до 20 для предварительных экспериментов
Можно экспериментировать с количеством слоёв, размером эмбеддинга и числом attention голов – это основа для поиска лучшей архитектуры! 🔍💡
5. Ресурсы и библиотеки
Используйте открытые библиотеки: Hugging Face Transformers, PyTorch или TensorFlow для быстрой реализации. Удачным стартом может стать пример из репозитория Hugging Face – там много документации и туториалов по fine-tuning и обучению с нуля! 👍
Вот такой подробный взгляд на процесс создания и обучения GPT модели наподобие! Делитесь своими экспериментами! 😊🚀💻
1. Архитектура модели
Модель GPT основана на классическом Transformer-декодере 🚀. Основные компоненты:
• Embedding слой для слов и позиции (position embeddings) 🔤
• Несколько блоков self-attention с multi-head механизмом (например, 8 голов) 👀
• Feed-forward сети с активацией GELU, layer normalization и residual connections для стабилизации обучения 🧠
• Итоговый linear слой для предсказания следующего токена 🔮
Пример размерности:
- Количество слоёв: 6-12
- Размер эмбеддинга: 256-512
- Размер feed-forward скрытого слоя: примерно 2048 (в зависимости от архитектуры)
- Dropout: 0.1 для предотвращения переобучения 🚧
2. Подготовка данных для обучения
Нам понадобится большой корпус текстовых данных. Например, можно использовать датасеты вроде WikiText, OpenWebText или собственный корпус новостей! 📚
Важно: перед обучением – токенизация с использованием Byte Pair Encoding (BPE) или похожего метода. Библиотека Hugging Face Transformers поможет удобно настроить токенизатор и загрузить датасет. 🛠️
Пример подготовки данных на Python:
python
from transformers import GPT2TokenizerFast
tokenizer = GPT2TokenizerFast.from_pretrained("gpt2") # или собственная модель
sample_text = "Пример текста для обучения модели."
tokens = tokenizer.encode(sample_text)
print("Токены:", tokens)
3. Процесс обучения
Основной цикл обучения построен так:
• Прямой проход модели по батчу (forward pass) через Transformer.
• Вычисление loss с использованием cross-entropy между предсказанными токенами и истинными знаками – задача языкового моделирования 🔥.
• Обратное распространение ошибки (backpropagation) для обновления весов ✨.
• Использование оптимизатора AdamW с понижением learning rate по schedule (например, cosine decay или linear warmup) 🌟.
4. Гиперпараметры и эксперименты
• Batch size: 16-32 (в зависимости от GPU памяти)
• Learning rate: 0.0005-0.001 с warmup (например, первые 500 шагов)
• Количество эпох: от 5 до 20 для предварительных экспериментов
Можно экспериментировать с количеством слоёв, размером эмбеддинга и числом attention голов – это основа для поиска лучшей архитектуры! 🔍💡
5. Ресурсы и библиотеки
Используйте открытые библиотеки: Hugging Face Transformers, PyTorch или TensorFlow для быстрой реализации. Удачным стартом может стать пример из репозитория Hugging Face – там много документации и туториалов по fine-tuning и обучению с нуля! 👍
Вот такой подробный взгляд на процесс создания и обучения GPT модели наподобие! Делитесь своими экспериментами! 😊🚀💻
Собрали подборку лучших ИИ экспертов, и энтузиастов в IT и нейросетях
👇👇👇
ЗАБРАТЬ ПАПКУ
В этой подборке — всё, что реально решает:
Но ты не вечен. И эта подборка — тоже.
Папка исчезнет. А возможность уйдёт к тем, кто не тупил.
Пока ты "думаешь" — другие подключают ИИ к бизнесу и делают результат.
Забери папку и адаптируйся. Или… оставайся в 2021.
Будущее не ждёт. Забирай. Подключайся. Действуй.
Хочешь в папку? Напиши @alinakatimtelezhku
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ИИ 30.04
Алина| Катим Тележку🛒|Папки взаимопиара invites you to add the folder “ИИ 30.04”, which includes 30 chats.
Neural Networks | Нейронные сети pinned «⚡️ ИИ захватывает всё. Кто не в теме — тот зритель на обочине😭 Собрали подборку лучших ИИ экспертов, и энтузиастов в IT и нейросетях 🔥 👇👇👇 ЗАБРАТЬ ПАПКУ В этой подборке — всё, что реально решает: ✔️ Чек-листы, которые ускоряют тебе работу в 10 раз ✔️ Каналы…»
Привет, друзья!🔥
Собрали для вас— годную подборочку каналов по:
ИИ/IT/Нейросетям📱
Что в папке?
✔️ Обзоры ИИ-сервисов и нейросетей
✔️ Каналы с подборками полезных AI-инструментов
✔️ Автоматизация задач для бизнеса и личных проектов
✔️ Примеры использования технологий в маркетинге, дизайне, продажах
✔️ Новости и аналитика из мира IT и инноваций
Хочешь быть в тренде ИИ волны, и остаться конкурентным в 21 веке?
Тогда ты знаешь, что делать👇
https://www.tgoop.com/addlist/Ya28f7txYuY4MjVi
Хочешь в папку? Сюда
Собрали для вас— годную подборочку каналов по:
ИИ/IT/Нейросетям
Что в папке?
Хочешь быть в тренде ИИ волны, и остаться конкурентным в 21 веке?
Тогда ты знаешь, что делать👇
https://www.tgoop.com/addlist/Ya28f7txYuY4MjVi
Хочешь в папку? Сюда
Please open Telegram to view this post
VIEW IN TELEGRAM
То, что показывает VEO 3, — это просто космос! 🚀✨
Результаты настолько впечатляют 🤯, что можно смело заявлять: перед нами новая эра в развитии ИИ 💡🤖, и это меняет всё! 🔥
Результаты настолько впечатляют 🤯, что можно смело заявлять: перед нами новая эра в развитии ИИ 💡🤖, и это меняет всё! 🔥
Forwarded from @gustarev [365] 🔥 (Максим Густарев)
Я думаю надо делать отдельную рубрику с нейро-вопросами :D
📱 Но для начала лайк на видео: https://youtu.be/0DgEQ96AGoI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM