🖼️ FLUX.1 Krea [dev] — новое качество генерации изображений с открытыми весами
🔥 Представлено сегодня в рамках совместной разработки Black Forest Labs и Krea AI
✨ Особенности:
• Самая продвинутая открытая FLUX-модель для текст-в-изображение
• Эстетика без «перенасыщенного AI look», фотореализм и богатая детализация
• Готова к донастройке: легко адаптируется под ваши стили и задачи
• Полная совместимость с экосистемой FLUX.1 [dev]
🔧 Почему это важно:
• Новая планка среди open-weight моделей — по качеству приближается к FLUX.1 [pro] и превосходит её по многим параметрам восприятия человеком
• Уникальная «opinionated» стилистика, никакого пресного AI-эффекта
🚀 Доступность:
• Весовые файлы уже опубликованы на Hugging Face под лицензией Dev Non‑Commercial
• Интеграция через API-фреймворк: включён в платформы Replicate, FAL.ai, Together.ai и саму Krea
🌐 Встраиваем в рабочий процесс:
• Используйте как базовую модель для генерации, дальнейшего обучения и fine-tuning
• Подходит для создания кастомных приложений с визуальным стилем
• Доступна для исследований и проектов с ограничениями использования
🎯 FLUX.1 Krea [dev] — это шаг вперёд в мире открытых моделей, сочетающий эстетику, гибкость и высокое качество.
🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
🔥 Представлено сегодня в рамках совместной разработки Black Forest Labs и Krea AI
✨ Особенности:
• Самая продвинутая открытая FLUX-модель для текст-в-изображение
• Эстетика без «перенасыщенного AI look», фотореализм и богатая детализация
• Готова к донастройке: легко адаптируется под ваши стили и задачи
• Полная совместимость с экосистемой FLUX.1 [dev]
🔧 Почему это важно:
• Новая планка среди open-weight моделей — по качеству приближается к FLUX.1 [pro] и превосходит её по многим параметрам восприятия человеком
• Уникальная «opinionated» стилистика, никакого пресного AI-эффекта
🚀 Доступность:
• Весовые файлы уже опубликованы на Hugging Face под лицензией Dev Non‑Commercial
• Интеграция через API-фреймворк: включён в платформы Replicate, FAL.ai, Together.ai и саму Krea
🌐 Встраиваем в рабочий процесс:
• Используйте как базовую модель для генерации, дальнейшего обучения и fine-tuning
• Подходит для создания кастомных приложений с визуальным стилем
• Доступна для исследований и проектов с ограничениями использования
🎯 FLUX.1 Krea [dev] — это шаг вперёд в мире открытых моделей, сочетающий эстетику, гибкость и высокое качество.
🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
❤5👍3🔥3
🚀 X-Omni – универсальная дискретная авторегрессивная модель для изображений и текста, прокачанная через Reinforcement Learning!
✅ Единая архитектура для генерации и изображений, и языковых модальностей
✅ Идеальное выполнение инструкций даже самых сложных
✅ Точный рендер текста на английском и китайском
✅ Любые разрешения: красивые картинки без потери качества
🔍 В процессе RL-марафона эстетика растёт, способность следовать инструкциям и рендерить длинные надписи улучшаются с каждой итерацией.
📄 Paper: https://arxiv.org/pdf/2507.22058
💻 GitHub: https://github.com/X-Omni-Team/X-Omni
🌐 Проект: https://x-omni-team.github.io
#AI #XOmni #ReinforcementLearning #ImageGen #Multimodal
✅ Единая архитектура для генерации и изображений, и языковых модальностей
✅ Идеальное выполнение инструкций даже самых сложных
✅ Точный рендер текста на английском и китайском
✅ Любые разрешения: красивые картинки без потери качества
🔍 В процессе RL-марафона эстетика растёт, способность следовать инструкциям и рендерить длинные надписи улучшаются с каждой итерацией.
📄 Paper: https://arxiv.org/pdf/2507.22058
💻 GitHub: https://github.com/X-Omni-Team/X-Omni
🌐 Проект: https://x-omni-team.github.io
#AI #XOmni #ReinforcementLearning #ImageGen #Multimodal
❤3🔥3👍2🤔1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
ByteDance показала экспериментальную языковую модель Seed Diffusion Preview, основанную на дискретной диффузии, которая работает в 5.4 раза быстрее аналогов того же размера, достигая скорости 2146 токенов в секунду. При этом качество генерации кода на ключевых бенчмарках остается сопоставимым.
Для достижения такого результата команда применила двухэтапное обучение и оптимизированный параллельный декодинг. В задачах редактирования кода, диффузионный подход показал явное преимущество над авторегрессионными моделями. ByteDance рассматривает эту технологию как возможную основу для языковых моделей нового поколения. Модель уже доступна для тестирования.
seed.bytedance.com
Manus добавил новую функцию Wide Research, которая позволяет одним кликом задействовать до сотни ИИ-агентов для параллельного выполнения сложных исследовательских задач. Система автоматически определяет, когда требуется расширенный поиск, и запускает множество копий Manus, каждая из которых работает над своей частью задачи в отдельной виртуальной машине.
Архитектура Wide Research вдохновлена парадигмой MapReduce от Google. В отличие от традиционных мультиагентных систем с ролевым разделением, здесь каждый суб-агент является полной копией Manus.
Функция уже доступна для Pro-пользователей, Plus и Basic подписчики получат доступ позже .
Ji Yichao (Co-founder of Manus) в сети Х.
Nvidia анонсировала дебют своей новой модели Queen для создания и стриминга объемного видео. Презентация состоится на конференции по компьютерной графике SIGGRAPH 2025 в Лос-Анджелесе. Демонстрации будут проходить на стенде Dell, где покажут, как Queen в связке с профессиональными видеокартами Nvidia RTX обеспечивает работу телеприсутствия в расширенной реальности и решает другие задачи по созданию контента.
Кроме того, 12 августа Nvidia проведет мероприятие «RTX Rendering Day». На нем исследователи компании расскажут о последних достижениях в области нейронного рендеринга, генерации синтетических данных и интеллектуального создания контента. Посетить сессии смогут все участники конференции.
research.nvidia.com
Command A Vision предназначена для анализа изображений, диаграмм, PDF-файлов и других визуальных данных. По заявлению разработчиков, на стандартных бенчмарках для компьютерного зрения она превосходит GPT-4.1, Llama 4 и Mistral Medium 3.
Модель способна не только считывать текст с документов, но и понимать их структуру, выдавая результат в формате JSON. Кроме того, Command A Vision может анализировать и реальные изображения, например, для выявления потенциальных рисков на промышленных объектах.
Модель уже доступна на платформе Cohere и в репозитории Hugging Face для исследовательских целей. Для запуска понадобятся 2 GPU A100 или один H100 под квантованную 4-битную версию.
cohere.com
В Anthropic обнаружили специфические паттерны нейронной активности - "векторы персоны", которые отвечают за устойчивые черты поведения LLM: склонность к лести, галлюцинациям или откровенно злому поведению.
Выделив эти нейронные сигнатуры, ученые научились предсказывать появление проблемных личностей и, что более важно, "вакцинировать" модели от них. В ходе обучения они намеренно активируют нежелательный вектор, а затем удаляют его перед развертыванием. Это позволяет сохранить общую производительность модели, но при этом значительно снизить риск токсичных или ложных ответов.
Исследование легло в основу новой инициативы Anthropic по так называемой "ИИ-психиатрии", цель которой - мониторинг и управление поведением моделей в больших масштабах. Хотя эксперименты проводились на небольших системах, в Anthropic считают, что эта техника поможет коммерческим чат-ботам избегать непредсказуемых изменений личности.
anthropic.com
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🥰1🤔1
🚂 Trax — библиотека для глубокого обучения от Google Brain. Проект предлагает чистый и производительный код для работы с нейросетями, включая Transformer и Reformer.
Проект имеет встроенную поддержку TPU/GPU и готовые реализации современных архитектур с возможностью тонкой настройки. Библиотека подходит как для обучения с нуля, так и для использования предобученных моделей, например, можно развернуть переводчик с английского на немецкий всего в несколько строк кода.
🤖 GitHub
@machinelearning_ru
Проект имеет встроенную поддержку TPU/GPU и готовые реализации современных архитектур с возможностью тонкой настройки. Библиотека подходит как для обучения с нуля, так и для использования предобученных моделей, например, можно развернуть переводчик с английского на немецкий всего в несколько строк кода.
🤖 GitHub
@machinelearning_ru
😁5👍3🔥3🥰2
😱 WHAT THE HECK
Очередная открытая модель уделала закрытые!
XBai o4 обходит OpenAI o3-mini и *уверенно* превосходит Claude Opus от Anthropic.
•Parameter: 32,8 B
•Training: Long‑CoT RL + Process Reward Learning (SPRM)
•Benchmarks (High‑Modus):
•AIME24: 86,5
•AIME25: 77,9
•LiveCodeBench v5: 67,2
•C‑EVAL: 89,7
🔥 Открытый ИИ снова на коне.
🔗Open-source weights: https://huggingface.co/MetaStoneTec/XBai-o4
Очередная открытая модель уделала закрытые!
XBai o4 обходит OpenAI o3-mini и *уверенно* превосходит Claude Opus от Anthropic.
•Parameter: 32,8 B
•Training: Long‑CoT RL + Process Reward Learning (SPRM)
•Benchmarks (High‑Modus):
•AIME24: 86,5
•AIME25: 77,9
•LiveCodeBench v5: 67,2
•C‑EVAL: 89,7
🔥 Открытый ИИ снова на коне.
🔗Open-source weights: https://huggingface.co/MetaStoneTec/XBai-o4
🔥7❤6👍2🥰2👎1
Forwarded from Machinelearning
🚀 Tencent расширяет экосистему Hunyuan LLM и выкладывают в открытый доступ еще 4 компактных моделей — 0.5B, 1.8B, 4B и 7B!
Эти модели заточены под low-power устройства: ПК, смартфоны, авто, умные дома и пользовательские GPU.
Модели легко настраиваются под вертикальные задачи и запускаются даже на одной карте.
💡 Особенности:
✅ Fast/slow thinking режимы: лаконичные или глубокие ответы
✅ 256K контекст и продвинутые агентные способности (tool use, планирование, reasoning)
✅ Хорошие метрики на тестах по языку, математике и логике
✅ Модели готовы к продакшену — работают с SGLang, vLLM, TensorRT-LLM
🖥 GitHub:
- 0.5B: https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
- 1.8B: https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
- 4B: https://github.com/Tencent-Hunyuan/Hunyuan-4B
- 7B: https://github.com/Tencent-Hunyuan/Hunyuan-7B
🤗 Hugging Face:
- 0.5B: https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
- 1.8B: https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
- 4B: https://huggingface.co/tencent/Hunyuan-4B-Instruct
- 7B: https://huggingface.co/tencent/Hunyuan-7B-Instruct
🔗 Подробнее: https://hunyuan.tencent.com/modelSquare/home/list
@ai_machinelearning_big_data
#Tencent #Hunyuan #ml #llm #ai #opensource
Эти модели заточены под low-power устройства: ПК, смартфоны, авто, умные дома и пользовательские GPU.
Модели легко настраиваются под вертикальные задачи и запускаются даже на одной карте.
💡 Особенности:
✅ Fast/slow thinking режимы: лаконичные или глубокие ответы
✅ 256K контекст и продвинутые агентные способности (tool use, планирование, reasoning)
✅ Хорошие метрики на тестах по языку, математике и логике
✅ Модели готовы к продакшену — работают с SGLang, vLLM, TensorRT-LLM
- 0.5B: https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
- 1.8B: https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
- 4B: https://github.com/Tencent-Hunyuan/Hunyuan-4B
- 7B: https://github.com/Tencent-Hunyuan/Hunyuan-7B
🤗 Hugging Face:
- 0.5B: https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
- 1.8B: https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
- 4B: https://huggingface.co/tencent/Hunyuan-4B-Instruct
- 7B: https://huggingface.co/tencent/Hunyuan-7B-Instruct
🔗 Подробнее: https://hunyuan.tencent.com/modelSquare/home/list
@ai_machinelearning_big_data
#Tencent #Hunyuan #ml #llm #ai #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🔥2
🧠 Секрет крутых AI‑агентов — не в коде, а в контексте
Наткнулся на интересный разбор по построению LLM-агентов.
Главный вывод: context engineering — это всё.
Вот в чём магия:
🔥 Как сделать агента умнее и стабильнее:
- Пишите промпты максимально статичным → больше KV-cache попаданий, меньше затрат
- Prefill: заранее задавай структуру ответа — модель будет вызывать нужные инструменты
- Используй файлы как память: сохраняй пути, а не сами данные
- Повторяй цели → LLM не забудет, зачем она вообще тут
- Не удаляй ошибки: проваленные tool-calls помогают модели адаптироваться
- Разнообразь few-shot-примеры: одинаковые шаблоны делают агента тупым
📈 Это не просто лайфхаки — это реально меняет эффективность агента в проде.
📌 Подробнее
Наткнулся на интересный разбор по построению LLM-агентов.
Главный вывод: context engineering — это всё.
Вот в чём магия:
🔥 Как сделать агента умнее и стабильнее:
- Пишите промпты максимально статичным → больше KV-cache попаданий, меньше затрат
- Prefill: заранее задавай структуру ответа — модель будет вызывать нужные инструменты
- Используй файлы как память: сохраняй пути, а не сами данные
- Повторяй цели → LLM не забудет, зачем она вообще тут
- Не удаляй ошибки: проваленные tool-calls помогают модели адаптироваться
- Разнообразь few-shot-примеры: одинаковые шаблоны делают агента тупым
📈 Это не просто лайфхаки — это реально меняет эффективность агента в проде.
📌 Подробнее
👍5❤4🔥3
💻 Transformer Engine — библиотека от NVIDIA для ускорения работы Transformer-моделей на GPU, включая поддержку 8-битной точности на архитектурах Hopper и Blackwell. Проект предлагает оптимизированные компоненты для популярных архитектур вроде BERT и GPT, упрощая mixed-precision обучение без потери точности.
Вместо стандартного FP32 обучение можно проводить в FP8, что значительно снижает потребление памяти и ускоряет процесс. Библиотека интегрируется с PyTorch и JAX, а также поддерживает FlashAttention для эффективного вычисления внимания. Подходит для работы с крупными языковыми моделями.
🤖 GitHub
@machinelearning_ru
Вместо стандартного FP32 обучение можно проводить в FP8, что значительно снижает потребление памяти и ускоряет процесс. Библиотека интегрируется с PyTorch и JAX, а также поддерживает FlashAttention для эффективного вычисления внимания. Подходит для работы с крупными языковыми моделями.
🤖 GitHub
@machinelearning_ru
❤5🔥2🥰1
🏆 Кремний получил конкурента!
Китайские исследователи вырастили 2-дюймовую пластину из индия селенидa — и транзисторы на ней уже обгоняют кремний по будущим бенчмаркам.
🔬 Индий селенид (InSe) — «золотой полупроводник»: лёгкие носители заряда, хороший запрещённый диапазон и сверхбыстрые электроны. Проблема: элементы испаряются с разной скоростью, и раньше удавалось получить только микрофлейки.
Теперь команда Пекинского университета решила это: напылили аморфный InSe на сапфир, покрыли жидким индий и нагрели до 550 °C. Получились крупные кристаллы с идеальной химией.
📉 Ключ: метрика energy-delay product (энергия × время переключения) у новых транзисторов уже лучше, чем ожидаемые показатели кремния на 2037 год!
Это может изменить всё: быстрее, меньше энергии, дешевле.
🔗 https://science.org/doi/10.1126/science.adu3803
Китайские исследователи вырастили 2-дюймовую пластину из индия селенидa — и транзисторы на ней уже обгоняют кремний по будущим бенчмаркам.
🔬 Индий селенид (InSe) — «золотой полупроводник»: лёгкие носители заряда, хороший запрещённый диапазон и сверхбыстрые электроны. Проблема: элементы испаряются с разной скоростью, и раньше удавалось получить только микрофлейки.
Теперь команда Пекинского университета решила это: напылили аморфный InSe на сапфир, покрыли жидким индий и нагрели до 550 °C. Получились крупные кристаллы с идеальной химией.
📉 Ключ: метрика energy-delay product (энергия × время переключения) у новых транзисторов уже лучше, чем ожидаемые показатели кремния на 2037 год!
Это может изменить всё: быстрее, меньше энергии, дешевле.
🔗 https://science.org/doi/10.1126/science.adu3803
❤12🔥5👍3
📊 Независимые бенчмарки gpt-oss от OpenAI
OpenAI выпустила два MoE-модели с открытым весом — и это, похоже, самые *интеллектуальные американские open-source LLM* на сегодня:
🧠 gpt-oss-120b (116.8B параметров, 5.1B активных): *Intelligence Index: 58*
🧠 gpt-oss-20b (20.9B параметров, 3.6B активных): *Intelligence Index: 48*
🏆 Что важно:
- gpt-oss-120b обходит o3-mini, уступая только o4-mini, DeepSeek R1 (59) и Qwen3 235B (64).
- Это *самая интеллектуальная модель*, которую можно запустить на одной H100.
- gpt-oss-20b — лидер среди моделей, которые можно запустить на ноутбуке с 16GB+ RAM.
💡 Эффективность и размер:
- MXFP4 precision: всего 60.8GB (120b) и 12.8GB (20b)
- 120B активирует только 4.4% параметров, в отличие от Llama 4 Scout с 17B активных
- Десятки токенов/с на MacBook для 20B
⚙️ Архитектура:
- MoE: top-4 эксперта на токен
- Rotary + YaRN, контекст: до 128K
- 36 слоёв / 64 головы / GQA с 8 KV
- 20B активирует ~17.2% параметров, больше, чем у 120B
📈 Сравнение с другими:
- DeepSeek R1: 671B total / 37B active, FP8, файл >10× больше
- Qwen3 235B: 64 балла, но тоже существенно тяжелее
🌐 Провайдеры API:
Тестируем:
💵 Цены (медиана):
- 120B: $0.15 / $0.69 за 1M токенов (ввод / вывод)
- 20B: $0.08 / $0.35
- Для сравнения: o4-mini — $1.1 / $4.4, o3 — $2 / $8 (!)
📄 Лицензия: Apache 2.0 — максимально свободно!
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU
OpenAI выпустила два MoE-модели с открытым весом — и это, похоже, самые *интеллектуальные американские open-source LLM* на сегодня:
🧠 gpt-oss-120b (116.8B параметров, 5.1B активных): *Intelligence Index: 58*
🧠 gpt-oss-20b (20.9B параметров, 3.6B активных): *Intelligence Index: 48*
🏆 Что важно:
- gpt-oss-120b обходит o3-mini, уступая только o4-mini, DeepSeek R1 (59) и Qwen3 235B (64).
- Это *самая интеллектуальная модель*, которую можно запустить на одной H100.
- gpt-oss-20b — лидер среди моделей, которые можно запустить на ноутбуке с 16GB+ RAM.
💡 Эффективность и размер:
- MXFP4 precision: всего 60.8GB (120b) и 12.8GB (20b)
- 120B активирует только 4.4% параметров, в отличие от Llama 4 Scout с 17B активных
- Десятки токенов/с на MacBook для 20B
⚙️ Архитектура:
- MoE: top-4 эксперта на токен
- Rotary + YaRN, контекст: до 128K
- 36 слоёв / 64 головы / GQA с 8 KV
- 20B активирует ~17.2% параметров, больше, чем у 120B
📈 Сравнение с другими:
- DeepSeek R1: 671B total / 37B active, FP8, файл >10× больше
- Qwen3 235B: 64 балла, но тоже существенно тяжелее
🌐 Провайдеры API:
Тестируем:
@GroqInc
, @CerebrasSystems
, @FireworksAI_HQ
, @togethercompute
💵 Цены (медиана):
- 120B: $0.15 / $0.69 за 1M токенов (ввод / вывод)
- 20B: $0.08 / $0.35
- Для сравнения: o4-mini — $1.1 / $4.4, o3 — $2 / $8 (!)
📄 Лицензия: Apache 2.0 — максимально свободно!
— GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
— GPT-OSS-20B — 21B параметров, работает на 16GB GPU
👍6❤2👎1🥰1
⏳ CUTLASS 4.1 — фреймворк для высокопроизводительных матричных вычислений на CUDA. Библиотека NVIDIA предоставляет низкоуровневые абстракции для эффективной реализации операций линейной алгебры на GPU. Последняя версия добавляет поддержку архитектур Blackwell и экспериментальный Python-интерфейс CuTe DSL для быстрой разработки ядер без глубоких знаний C++.
Инструмент имеет гибкую систему шаблонов, позволяющая тонко настраивать вычисления под разные типы данных и аппаратные особенности современных GPU NVIDIA.
🤖 GitHub
@machinelearning_ru
Инструмент имеет гибкую систему шаблонов, позволяющая тонко настраивать вычисления под разные типы данных и аппаратные особенности современных GPU NVIDIA.
🤖 GitHub
@machinelearning_ru
❤4👍3🔥2
Машинное обучение RU
📊 Независимые бенчмарки gpt-oss от OpenAI OpenAI выпустила два MoE-модели с открытым весом — и это, похоже, самые *интеллектуальные американские open-source LLM* на сегодня: 🧠 gpt-oss-120b (116.8B параметров, 5.1B активных): *Intelligence Index: 58* 🧠…
🆕 OpenAI выложила в опенсорс рассуждающие модели gpt‑oss‑120b и gpt‑oss‑20b. Теперь их можно запускать по API в Yandex Cloud AI Studio.
📌 Почему это важно:
• Развернуть такие модели локально сложно — нужны большие вычислительные мощности и поддержка инфраструктуры.
• Прямое использование API OpenAI может не соответствовать требованиям ФЗ‑152 и закона о локализации данных.
• В Yandex Cloud данные хранятся и обрабатываются в российских дата‑центрах.
Модели сопоставимы по качеству с o3‑mini и o4‑mini, а в отдельных задачах превосходят GPT‑4o и o1. Поддерживают настраиваемую интенсивность рассуждений и скорость ответа.
Сценарии применения: автоматизация рекрутмента, техподдержки, анализ документов, первичная коммуникация с клиентами. Вскоре появится возможность вызова функций — можно будет интегрировать поиск информации в интернете прямо при генерации ответа. За использование модели 120b берут 30 копеек за 1000 токенов, для “младшей” модели – 10 копеек.
@machinelearning_ru
📌 Почему это важно:
• Развернуть такие модели локально сложно — нужны большие вычислительные мощности и поддержка инфраструктуры.
• Прямое использование API OpenAI может не соответствовать требованиям ФЗ‑152 и закона о локализации данных.
• В Yandex Cloud данные хранятся и обрабатываются в российских дата‑центрах.
Модели сопоставимы по качеству с o3‑mini и o4‑mini, а в отдельных задачах превосходят GPT‑4o и o1. Поддерживают настраиваемую интенсивность рассуждений и скорость ответа.
Сценарии применения: автоматизация рекрутмента, техподдержки, анализ документов, первичная коммуникация с клиентами. Вскоре появится возможность вызова функций — можно будет интегрировать поиск информации в интернете прямо при генерации ответа. За использование модели 120b берут 30 копеек за 1000 токенов, для “младшей” модели – 10 копеек.
@machinelearning_ru
👍2❤1🔥1
SWE‑Swiss-32B — модель с 32 млрд параметров, оптимизированная для эффективного исправления программных проблем.
Что входит в рецепт обучения:
- Мulti‑Task Fine‑Tuning + Reinforcement Learning — обучаем модель сразу на нескольких навыках и усиливаем через RL.
- Ключевые навыки:
- Локализация ошибок (файлы)
- Генерация патчей
- Создание unit-тестов
По результатам тестов на SWE‑bench Verified, модель показывает производительность на уровне передовых закрытых моделей, несмотря на свою среднюю размерность.
Плюсы:
- Доступно на Hugging Face под лицензией MIT
- Использует
transformers
— просто интегрировать в пайплайнПочему это круто:
SWE‑Swiss — пример того, как грамотно комбинация мультизадочного обучения и RL позволяет добиться высоких результатов в решении понятийно сложных задач, делая LLM доступнее и эффективнее для разработчиков.
📑Notion: https://pebble-potato-fc6.notion.site/SWE-Swiss-A-Multi-Task-Fine-Tuning-and-RL-Recipe-for-High-Performance-Issue-Resolution-21e174dedd4880ea829ed4c861c44f88?pvs=143
💻Github: https://github.com/zhenyuhe00/SWE-Swiss
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1🔥1
🧠 Большинство AI‑агентов не понимают друг друга — задачи повторяются, токены тратятся впустую, и всё ломается.
📊 Новый обзор сравнил 24 фреймворка для AI-агентов и показал, что не хватает общей спецификации, из-за чего агенты не могут "работать в команде".
🤖 Что такое агентный воркфлоу?
Это playbook для LLM: какие подзадачи запускать, в каком порядке и с какими внешними инструментами.
Без него — модель либо тратит токены на догадки, либо забывает, что сделала 2 минуты назад.
🧩 Авторы разделили системы по 2 осям:
- Функции: планирование задач, вызов инструментов, память, командная работа
- Архитектура: роли, потоки данных, протоколы
⚠️ Все используют Python-цепочки и JSON-конфиги, но:
• форматы сообщений разные
• названия ролей свои
• схемы инструментов — кастомные
Это мешает совместимости, тормозит безопасность и делает баги вроде tool poisoning труднее устранимыми.
✅ Решения, предложенные в статье:
- Открытые протоколы: MCP, A2A
- Loop-архитектуры: planner → executor → feedback
- Планировщики, чтобы агенты не дрались за один ресурс
📌 Вывод: пока у нас нет общего языка воркфлоу, агентные системы останутся изолированными островами.
📝 Читать статью: https://arxiv.org/abs/2508.01186
📊 Новый обзор сравнил 24 фреймворка для AI-агентов и показал, что не хватает общей спецификации, из-за чего агенты не могут "работать в команде".
🤖 Что такое агентный воркфлоу?
Это playbook для LLM: какие подзадачи запускать, в каком порядке и с какими внешними инструментами.
Без него — модель либо тратит токены на догадки, либо забывает, что сделала 2 минуты назад.
🧩 Авторы разделили системы по 2 осям:
- Функции: планирование задач, вызов инструментов, память, командная работа
- Архитектура: роли, потоки данных, протоколы
⚠️ Все используют Python-цепочки и JSON-конфиги, но:
• форматы сообщений разные
• названия ролей свои
• схемы инструментов — кастомные
Это мешает совместимости, тормозит безопасность и делает баги вроде tool poisoning труднее устранимыми.
✅ Решения, предложенные в статье:
- Открытые протоколы: MCP, A2A
- Loop-архитектуры: planner → executor → feedback
- Планировщики, чтобы агенты не дрались за один ресурс
📌 Вывод: пока у нас нет общего языка воркфлоу, агентные системы останутся изолированными островами.
📝 Читать статью: https://arxiv.org/abs/2508.01186
👍4❤2
📌 oneDNN — высокопроизводительная библиотека для ускорения нейронных сетей, разработанная Intel. Этот open-source проект оптимизирует вычисления для процессоров Intel и ARM, а также поддерживает экспериментальные реализации под NVIDIA/AMD GPU.
Библиотека выступает строительным блоком для популярных фреймворков вроде PyTorch и TensorFlow, автоматически подбирая оптимальные инструкции CPU через JIT-компиляцию. Интересно, что она также работает на экзотических архитектурах — от IBM z/Architecture до RISC-V, хотя поддержка последних пока ограничена.
🤖 GitHub
@machinelearning_ru
Библиотека выступает строительным блоком для популярных фреймворков вроде PyTorch и TensorFlow, автоматически подбирая оптимальные инструкции CPU через JIT-компиляцию. Интересно, что она также работает на экзотических архитектурах — от IBM z/Architecture до RISC-V, хотя поддержка последних пока ограничена.
🤖 GitHub
@machinelearning_ru
❤6👍3