Telegram Web
This media is not supported in your browser
VIEW IN TELEGRAM
Google Cloud добавил два новых расширения в Gemini CLI, которые делают работу с приложениями удобнее и безопаснее:

1️⃣ /deploy — деплой прямо в Cloud Run
2️⃣ /security:analyze — проверка кода на уязвимости

Теперь эти операции можно выполнять прямо из командной строки.
Подробнее: https://goo.gle/46aR6a0

#GoogleCloud #GeminiCLI #CloudRun #Security #DevTools
👍2
Forwarded from Machinelearning
🖥 HunyuanImage 2.1 теперь доступна в квантизованной версии!

Это text-image модель, которая может генерировать изображения в 2K.

Теперь модель можно запускать локально. Для этого необходимо минимум 24GB VRAM.

🟢Hugging Face: https://huggingface.co/tencent/HunyuanImage-2.1)
🟢Подробнее про модель: https://www.tgoop.com/machinelearning_interview/2161

@ai_machinelearning_big_data


#AI #HunyuanImage #StableDiffusion #ImageGeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍2🔥1
Forwarded from Machinelearning
🧠 mem-agent — агент с памятью в стиле Obsidian

Лёгкая LLM-модель, которая умеет хранить знания в человеко-читаемой памяти (Markdown-файлы) и использовать их для ответов. Агент не просто отвечает на запросы, а действительно «помнит» факты и обновляет их по ходу работы.

Это агент на 4B с локальной, совместимой памятью для Claude, ChatGPT и LM Studio.

Как работает память:
- Вся информация лежит в Markdown: memory/user.md и отдельные файлы для сущностей.
- Связи между файлами сделаны как в Obsidian: [[entity]].
- Агент может извлекать факты, обновлять их или задавать уточняющие вопросы, если запрос неполный.

Вместо огромных контекстов и упора в лимиты, Mem-Agent извлекает нужные фрагменты из локальных документов, сжимает их и передаёт агенту.

Как обучали:
- Базовая модель: Qwen3-4B-Thinking-2507.
- Использовали метод онлайн-RL (GSPO).
- Тестировали на md-memory-bench.

Результаты:
- mem-agent уверенно решает задачи памяти, близко к уровню больших моделей.
- Даже в сжатых версиях (4-bit и 8-bit) сохраняет почти то же качество.

Чем хорош:
- Память можно читать и редактировать вручную.
- Агент работает быстро и эффективно, даже в маленьком размере.
- Удобен как компонент в более крупных системах (например, через MCP).

🟠Model: https://huggingface.co/driaforall/mem-agent
🟠Blog: https://huggingface.co/blog/driaforall/mem-agent
🟠Repo: https://github.com/firstbatchxyz/mem-agent-mcp

@ai_machinelearning_big_data


#LLM #AI #Agents #MemAgent #Dria #MCP #LocalAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍2
🌐 Теория «Мёртвого интернета» в действии

1️⃣ Именно поэтому Цукерберг и его компания продвигают своих AI-компаньонов (Цитата Марка: *«у каждого должны быть AI-друзья»*) — потому что теория «мёртвого интернета» постепенно становится реальностью.

2️⃣ Интернет и социальные сети уже переполнены ботами на базе ИИ — и отличить человека от машины становится всё сложнее.

🤖 Граница между реальным общением и синтетическим присутствием всё больше размывается.
12👍3🔥1
Как стать востребованным специалистом в ML?
Получите актуальные знания и навыки на курсе «Machine Learning. Professional».

🔹Освойте современные инструменты на профессиональном уровне и получите навыки создания моделей машинного обучения от преподавателей-практиков.

🔹Мы вместе с преподавателями подготовили программу обучения, где много практики, чтобы вы использовали только актуальные инструменты 2025 года на реальных проектах во время обучения.

После обучения вы сможете:
• Работать с языковыми моделями (NLP)
• Прогнозировать временные ряды при помощи машинного обучения.
• Строить рекомендательные системы
готовить модели в продакшн
• Разрабатывать и создавать нейросетевые AI-модели
• Работать с AI-моделями
• Применять широкий спектр нейросетевых AI-моделей для разнообразных задач.

Записывайтесь на бесплатный вебинар
15 сентября в 20:00 мск.

🎁Участники вебинара смогут активировать скидку 5% на курс по промо-коду: ML_PRO_09 до 10.10.2025г. Регистрация на сайте.

Старт курса: 26 сентября.
Оставить заявку ➡️ OTUS.RU

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
👍2
Media is too big
VIEW IN TELEGRAM
🧠 SpikingBrain-7B: Модели, вдохновленные нейробиологией

SpikingBrain-7B представляет собой архитектуру, основанную на механизмах мозга, которая использует гибридное внимание и модули MoE для эффективного обучения. Она обеспечивает высокую производительность при минимальных затратах данных и адаптирована для кластеров без NVIDIA, что позволяет значительно ускорить обучение и вывод.

🚀Основные моменты:
- Интеграция гибридного внимания и MoE.
- Поддержка низкопрофильного обучения с использованием менее 2% данных.
- Оптимизирована для кластеров MetaX.
- Достигает более чем 100-кратного ускорения в обработке длинных последовательностей.
- Включает версии для HuggingFace и квантованную версию.

📌 GitHub: https://github.com/BICLab/SpikingBrain-7B
📌 Видео-разбор: https://www.youtube.com/watch?v=pLNheyBzA9o
6👍3
Стань участником МТС True Tech Champ 2025 — масштабного ИТ-чемпионата по программированию с призовым фондом 10 250 000 рублей.

Соревнования пройдут в двух треках:

1. Алгоритмические задачи
Покажи индивидуальное мастерство в работе со структурами данных и написании алгоритмов. Чтобы успешно справиться с заданиями, пригодится опыт решения олимпиад.

2. Программирование роботов
Оживи робота с помощью кода, чтобы он прошел лабиринт быстрее всех. Трек будет интересен разработчикам: С++, Go, Python, JS, Java, C# и не только.

Участвовать могут школьники, студенты, начинающие ИТ-специалисты и опытные разработчики. Отборочные этапы пройдут онлайн, шоу-финал — 21 ноября в МТС Live Холл в Москве.

Ты можешь выйти на арену как участник или наблюдать за чемпионатом как зритель.

Регистрируйся до 20 октября по ссылке.
🚀 Обучение LLM-агентов для многоповоротного принятия решений

AgentGym-RL — это фреймворк для тренировки LLM-агентов, способных принимать решения в сложных многоповоротных сценариях с использованием методов усиленного обучения. Он предлагает разнообразные реальные сценарии и поддерживает популярные алгоритмы RL, улучшая производительность моделей до уровня коммерческих решений.

🚀 Основные моменты:
- Модульная система для гибкости и расширяемости.
- Поддержка различных реальных сред, включая веб-навигацию и глубокий поиск.
- Метод ScalingInter-RL для стабильного обучения агентов.
- Интерактивный интерфейс для визуализации взаимодействий.

📌 GitHub: https://github.com/WooooDyy/AgentGym-RL

#python
4👍2🔥1
Продуктивная пятница для тех кто в теме Java и ML – приходите на VK JT Meetup!

3 октября VK проводит VK JT Meetup в Нижнем — офлайн-встречу ML-инженеров и Java-разработчиков.

Лиды VK расскажут про вызовы перед бэкендером, которые возникают в процессе создания B2B-продукта. А также поделятся пошаговым гайдом по выпуску RAG в прод и процессом создания единой инфраструктуры поисковой платформы.

А после докладов вас ждут командные кейс-батлы и нетворкинг.

Приходите посоревноваться за призы в кейс-батле и пообщаться с экспертами в нетворкинг-зоне.

📍 Нижний Новгород, только офлайн
📅 3 октября, сбор с 18:00
🎟 Вход по регистрации
🌐 DeepMind представила URL Context — теперь можно извлекать данные с любой веб-страницы, PDF или картинки просто по ссылке!

Что умеет:
- Подтягивает данные с до 20 URL за один запрос
- Никакой настройки — просто вставляешь ссылки в промпт
- Оплата только за токены, без доп. стоимости за инструмент

💡 Возможности:
▸ Вытаскивать цены, имена, ключевые факты из статей
▸ Сравнивать PDF, отчёты или статьи
▸ Генерировать резюме, посты и документы на основе разных источников
▸ Анализировать GitHub-репозитории и техдоки

👉 URL Context превращает LLM в универсальный инструмент для работы с реальными данными в сети.

https://ai.google.dev/gemini-api/docs/url-context?hl=ru
2👍1
Канал о серверной и облачной инфраструктуре для ИИ.

Подписывайся на Telegram-канал HOSTKEY — здесь вы найдете:

🔹тесты производительности и бенчмарки GPU-карт и серверного «железа»
🔹новости рынка и технологий
🔹лайфхаки и инструкции по интеграции ИИ в проекты
🔹практические советы для разработчиков и бизнеса

🔥 Последние популярные публикации канала:

🔹 Сравнение NVIDIA RTX 6000 Blackwell 96 ГБ с RTX 5090, A5000 и H100 в задачах LLM и генерации видео — результаты удивляют!
🔹Тестирование NVIDIA GeForce RTX 5090 в задачах ИИ.
🔹10 советов по Open WebUI, которые помогут в работе с нейросетями.
🔹Как добавить генерацию изображений через ComfyUI в Open WebUI.

🎁 А еще мы каждый месяц разыгрываем Telegram Premium среди подписчиков!

Если вы работаете с ИИ и нейросетями — вам точно будет интересно и полезно! 
Подписывайтесь! 

#реклама
О рекламодателе
3👍1
🤖 Build a Coding Agent from Scratch — Full Python Tutorial

Новый туториал показывает, как своими руками собрать мини-версию Claude Code-агента на Python.

Что внутри:
- 🧠 Создание reasoning-модуля («мозга» для принятия решений)
- 📝 Инструкции и ReAct-loop для пошагового мышления
- 🔧 Интеграция инструментов и памяти
- 🛡 Безопасное выполнение кода и песочница
- 📂 Работа с большими кодовыми базами (контекст-менеджмент)

Итог: агент, который умеет писать, тестировать, дебажить и итеративно улучшать код. Отличный материал, чтобы разобраться, как устроены современные coding-assistants под капотом.

🟢 Read: https://siddharthbharath.com/build-a-coding-agent-python-tutorial/
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2
Forwarded from Machinelearning
⚡️ Ling-flash-2.0 теперь в открытом доступе! ⚡️

Модель на 100B параметров, но задействовано всего ≈6.1B активных, что делает модель очень экономной в вычислительной нагрузке.

🚀 Чем хороша Ling-flash-2.0
- Обучена на более чем 20 триллионах токенов с до-обучением и RL-этапами.
- Демонстрирует state-of-the-art производительность среди плотных моделей до 40B параметров.
- Особенно хороша в сложном рассуждении, генерации кода и задачах с фронтендом.

⚙️ Архитектура и эффективность
- MoE-архитектура с активированием лишь части параметров (activation ratio 1/32).
- Много технических фишек: продвинутое распределение экспертов, баланс внимания, схема маршрутизации без вспомогательных потерь и др.
- На железе H20 модель генерирует 200+ токенов в секунду - в 3× быстрее по сравнению с плотной моделью 36B.
- Поддерживает контексты до 128K токенов (с YaRN).

https://huggingface.co/inclusionAI/Ling-flash-2.0

@ai_machinelearning_big_data


#moe #llm #ml #ai #opensource
👍31🔥1
🔥 Новая модель: Ring-mini-2.0

📊 При размере всего 16B параметров (и лишь **1.4B активных**) модель показывает уровень рассуждений, сравнимый с плотными моделями до 10B.

На ключевых бенчмарках:
- LiveCodeBench, AIME 2025, GPQA, ARC-AGI-v1
Ring-mini-2.0 обходит все плотные модели <10B и даже соперничает с более крупными MoE-моделями (например, gpt-oss-20B-medium), особенно в задачах логического мышления.

Дополнительно — команда vibe на базе Ring-mini-2.0 в anycoder собрала быстрый чат-приложение, демонстрируя практические возможности модели.

Ring-mini-2.0 — ещё один шаг к компактным, но мощным reasoning-моделям, которые легко запускать и интегрировать.

#AI #LLM #RingMini #Reasoning #MoE

https://huggingface.co/spaces/akhaliq/Ring-mini-2.0
👍1🔥1
2025/09/18 15:30:39
Back to Top
HTML Embed Code: