Telegram Web
🖼️ FLUX.1 Krea [dev] — новое качество генерации изображений с открытыми весами

🔥 Представлено сегодня в рамках совместной разработки Black Forest Labs и Krea AI

Особенности:
• Самая продвинутая открытая FLUX-модель для текст-в-изображение
• Эстетика без «перенасыщенного AI look», фотореализм и богатая детализация
• Готова к донастройке: легко адаптируется под ваши стили и задачи
• Полная совместимость с экосистемой FLUX.1 [dev]

🔧 Почему это важно:
• Новая планка среди open-weight моделей — по качеству приближается к FLUX.1 [pro] и превосходит её по многим параметрам восприятия человеком
• Уникальная «opinionated» стилистика, никакого пресного AI-эффекта

🚀 Доступность:
• Весовые файлы уже опубликованы на Hugging Face под лицензией Dev Non‑Commercial
• Интеграция через API-фреймворк: включён в платформы Replicate, FAL.ai, Together.ai и саму Krea

🌐 Встраиваем в рабочий процесс:
• Используйте как базовую модель для генерации, дальнейшего обучения и fine-tuning
• Подходит для создания кастомных приложений с визуальным стилем
• Доступна для исследований и проектов с ограничениями использования

🎯 FLUX.1 Krea [dev] — это шаг вперёд в мире открытых моделей, сочетающий эстетику, гибкость и высокое качество.


🔗 Поробовать : https://krea.ai
🔗 HF: https://huggingface.co/black-forest-labs/FLUX.1-Krea-dev
🔗Comfy Workflow - https://docs.comfy.org/tutorials/flux/flux1-krea-dev
5👍3🔥3
🚀 X-Omni – универсальная дискретная авто­регрес­сивная модель для изображений и текста, прокачанная через Reinforcement Learning!

Единая архитектура для генерации и изображений, и языковых модальностей
Идеальное выполнение инструкций даже самых сложных
Точный рендер текста на английском и китайском
Любые разрешения: красивые картинки без потери качества

🔍 В процессе RL-марафона эстетика растёт, способность следовать инструкциям и рендерить длинные надписи улучшаются с каждой итерацией.

📄 Paper: https://arxiv.org/pdf/2507.22058
💻 GitHub: https://github.com/X-Omni-Team/X-Omni
🌐 Проект: https://x-omni-team.github.io

#AI #XOmni #ReinforcementLearning #ImageGen #Multimodal
3🔥3👍2🤔1
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ ByteDance разогнала языковую модель в 5.4 раза с помощью дискретной диффузии.

ByteDance показала экспериментальную языковую модель Seed Diffusion Preview, основанную на дискретной диффузии, которая работает в 5.4 раза быстрее аналогов того же размера, достигая скорости 2146 токенов в секунду. При этом качество генерации кода на ключевых бенчмарках остается сопоставимым.

Для достижения такого результата команда применила двухэтапное обучение и оптимизированный параллельный декодинг. В задачах редактирования кода, диффузионный подход показал явное преимущество над авторегрессионными моделями. ByteDance рассматривает эту технологию как возможную основу для языковых моделей нового поколения. Модель уже доступна для тестирования.
seed.bytedance.com

✔️ Manus Wide Research: запуск до 100 ИИ-агентов одновременно.

Manus добавил новую функцию Wide Research, которая позволяет одним кликом задействовать до сотни ИИ-агентов для параллельного выполнения сложных исследовательских задач. Система автоматически определяет, когда требуется расширенный поиск, и запускает множество копий Manus, каждая из которых работает над своей частью задачи в отдельной виртуальной машине.

Архитектура Wide Research вдохновлена парадигмой MapReduce от Google. В отличие от традиционных мультиагентных систем с ролевым разделением, здесь каждый суб-агент является полной копией Manus.

Функция уже доступна для Pro-пользователей, Plus и Basic подписчики получат доступ позже .
Ji Yichao (Co-founder of Manus) в сети Х.

✔️ Nvidia представит на SIGGRAPH 2025 ИИ-модель Queen для создания объемного видео.

Nvidia анонсировала дебют своей новой модели Queen для создания и стриминга объемного видео. Презентация состоится на конференции по компьютерной графике SIGGRAPH 2025 в Лос-Анджелесе. Демонстрации будут проходить на стенде Dell, где покажут, как Queen в связке с профессиональными видеокартами Nvidia RTX обеспечивает работу телеприсутствия в расширенной реальности и решает другие задачи по созданию контента.

Кроме того, 12 августа Nvidia проведет мероприятие «RTX Rendering Day». На нем исследователи компании расскажут о последних достижениях в области нейронного рендеринга, генерации синтетических данных и интеллектуального создания контента. Посетить сессии смогут все участники конференции.
research.nvidia.com

✔️ Cohere выпустила новую мультимодальную модель Command A Vision.

Command A Vision предназначена для анализа изображений, диаграмм, PDF-файлов и других визуальных данных. По заявлению разработчиков, на стандартных бенчмарках для компьютерного зрения она превосходит GPT-4.1, Llama 4 и Mistral Medium 3.

Модель способна не только считывать текст с документов, но и понимать их структуру, выдавая результат в формате JSON. Кроме того, Command A Vision может анализировать и реальные изображения, например, для выявления потенциальных рисков на промышленных объектах.

Модель уже доступна на платформе Cohere и в репозитории Hugging Face для исследовательских целей. Для запуска понадобятся 2 GPU A100 или один H100 под квантованную 4-битную версию.
cohere.com

✔️ Anthropic научилась "вакцинировать" ИИ-модели от нежелательного поведения.

В Anthropic обнаружили специфические паттерны нейронной активности - "векторы персоны", которые отвечают за устойчивые черты поведения LLM: склонность к лести, галлюцинациям или откровенно злому поведению.

Выделив эти нейронные сигнатуры, ученые научились предсказывать появление проблемных личностей и, что более важно, "вакцинировать" модели от них. В ходе обучения они намеренно активируют нежелательный вектор, а затем удаляют его перед развертыванием. Это позволяет сохранить общую производительность модели, но при этом значительно снизить риск токсичных или ложных ответов.

Исследование легло в основу новой инициативы Anthropic по так называемой "ИИ-психиатрии", цель которой - мониторинг и управление поведением моделей в больших масштабах. Хотя эксперименты проводились на небольших системах, в Anthropic считают, что эта техника поможет коммерческим чат-ботам избегать непредсказуемых изменений личности.
anthropic.com
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍3🥰1🤔1
🚂 Trax — библиотека для глубокого обучения от Google Brain. Проект предлагает чистый и производительный код для работы с нейросетями, включая Transformer и Reformer.

Проект имеет встроенную поддержку TPU/GPU и готовые реализации современных архитектур с возможностью тонкой настройки. Библиотека подходит как для обучения с нуля, так и для использования предобученных моделей, например, можно развернуть переводчик с английского на немецкий всего в несколько строк кода.

🤖 GitHub

@machinelearning_ru
😁5👍3🔥3🥰2
😱 WHAT THE HECK

Очередная открытая модель уделала закрытые!
XBai o4 обходит OpenAI o3-mini и *уверенно* превосходит Claude Opus от Anthropic.

•Parameter: 32,8 B
•Training: Long‑CoT RL + Process Reward Learning (SPRM)
•Benchmarks (High‑Modus):
•AIME24: 86,5
•AIME25: 77,9
•LiveCodeBench v5: 67,2
•C‑EVAL: 89,7

🔥 Открытый ИИ снова на коне.

🔗Open-source weights: https://huggingface.co/MetaStoneTec/XBai-o4
🔥76👍2🥰2👎1
Forwarded from Machinelearning
🚀 Tencent расширяет экосистему Hunyuan LLM и выкладывают в открытый доступ еще 4 компактных моделей — 0.5B, 1.8B, 4B и 7B!

Эти модели заточены под low-power устройства: ПК, смартфоны, авто, умные дома и пользовательские GPU.

Модели легко настраиваются под вертикальные задачи и запускаются даже на одной карте.

💡 Особенности:
Fast/slow thinking режимы: лаконичные или глубокие ответы
256K контекст и продвинутые агентные способности (tool use, планирование, reasoning)
Хорошие метрики на тестах по языку, математике и логике
Модели готовы к продакшену — работают с SGLang, vLLM, TensorRT-LLM

🖥 GitHub:
- 0.5B: https://github.com/Tencent-Hunyuan/Hunyuan-0.5B
- 1.8B: https://github.com/Tencent-Hunyuan/Hunyuan-1.8B
- 4B: https://github.com/Tencent-Hunyuan/Hunyuan-4B
- 7B: https://github.com/Tencent-Hunyuan/Hunyuan-7B

🤗 Hugging Face:
- 0.5B: https://huggingface.co/tencent/Hunyuan-0.5B-Instruct
- 1.8B: https://huggingface.co/tencent/Hunyuan-1.8B-Instruct
- 4B: https://huggingface.co/tencent/Hunyuan-4B-Instruct
- 7B: https://huggingface.co/tencent/Hunyuan-7B-Instruct

🔗 Подробнее: https://hunyuan.tencent.com/modelSquare/home/list

@ai_machinelearning_big_data


#Tencent #Hunyuan #ml #llm #ai #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍3🔥2
🧠 Секрет крутых AI‑агентов — не в коде, а в контексте

Наткнулся на интересный разбор по построению LLM-агентов.
Главный вывод: context engineering — это всё.

Вот в чём магия:

🔥 Как сделать агента умнее и стабильнее:
- Пишите промпты максимально статичным → больше KV-cache попаданий, меньше затрат
- Prefill: заранее задавай структуру ответа — модель будет вызывать нужные инструменты
- Используй файлы как память: сохраняй пути, а не сами данные
- Повторяй цели → LLM не забудет, зачем она вообще тут
- Не удаляй ошибки: проваленные tool-calls помогают модели адаптироваться
- Разнообразь few-shot-примеры: одинаковые шаблоны делают агента тупым

📈 Это не просто лайфхаки — это реально меняет эффективность агента в проде.

📌 Подробнее
👍54🔥3
💻 Transformer Engine — библиотека от NVIDIA для ускорения работы Transformer-моделей на GPU, включая поддержку 8-битной точности на архитектурах Hopper и Blackwell. Проект предлагает оптимизированные компоненты для популярных архитектур вроде BERT и GPT, упрощая mixed-precision обучение без потери точности.

Вместо стандартного FP32 обучение можно проводить в FP8, что значительно снижает потребление памяти и ускоряет процесс. Библиотека интегрируется с PyTorch и JAX, а также поддерживает FlashAttention для эффективного вычисления внимания. Подходит для работы с крупными языковыми моделями.

🤖 GitHub

@machinelearning_ru
5🔥2🥰1
🏆 Кремний получил конкурента!

Китайские исследователи вырастили 2-дюймовую пластину из индия селенидa — и транзисторы на ней уже обгоняют кремний по будущим бенчмаркам.

🔬 Индий селенид (InSe) — «золотой полупроводник»: лёгкие носители заряда, хороший запрещённый диапазон и сверхбыстрые электроны. Проблема: элементы испаряются с разной скоростью, и раньше удавалось получить только микрофлейки.

Теперь команда Пекинского университета решила это: напылили аморфный InSe на сапфир, покрыли жидким индий и нагрели до 550 °C. Получились крупные кристаллы с идеальной химией.

📉 Ключ: метрика energy-delay product (энергия × время переключения) у новых транзисторов уже лучше, чем ожидаемые показатели кремния на 2037 год!

Это может изменить всё: быстрее, меньше энергии, дешевле.

🔗 https://science.org/doi/10.1126/science.adu3803
12🔥5👍3
Думаю, что скоро в Москве пройдет интересный ивент по рекомендательным системам и нейронкам. Ждем детали!
🔥116👍4👏1
📊 Независимые бенчмарки gpt-oss от OpenAI

OpenAI выпустила два MoE-модели с открытым весом — и это, похоже, самые *интеллектуальные американские open-source LLM* на сегодня:

🧠 gpt-oss-120b (116.8B параметров, 5.1B активных): *Intelligence Index: 58*
🧠 gpt-oss-20b (20.9B параметров, 3.6B активных): *Intelligence Index: 48*

🏆 Что важно:
- gpt-oss-120b обходит o3-mini, уступая только o4-mini, DeepSeek R1 (59) и Qwen3 235B (64).
- Это *самая интеллектуальная модель*, которую можно запустить на одной H100.
- gpt-oss-20b — лидер среди моделей, которые можно запустить на ноутбуке с 16GB+ RAM.

💡 Эффективность и размер:
- MXFP4 precision: всего 60.8GB (120b) и 12.8GB (20b)
- 120B активирует только 4.4% параметров, в отличие от Llama 4 Scout с 17B активных
- Десятки токенов/с на MacBook для 20B

⚙️ Архитектура:
- MoE: top-4 эксперта на токен
- Rotary + YaRN, контекст: до 128K
- 36 слоёв / 64 головы / GQA с 8 KV
- 20B активирует ~17.2% параметров, больше, чем у 120B

📈 Сравнение с другими:
- DeepSeek R1: 671B total / 37B active, FP8, файл >10× больше
- Qwen3 235B: 64 балла, но тоже существенно тяжелее

🌐 Провайдеры API:
Тестируем: @GroqInc, @CerebrasSystems, @FireworksAI_HQ, @togethercompute

💵 Цены (медиана):
- 120B: $0.15 / $0.69 за 1M токенов (ввод / вывод)
- 20B: $0.08 / $0.35
- Для сравнения: o4-mini — $1.1 / $4.4, o3 — $2 / $8 (!)

📄 Лицензия: Apache 2.0 — максимально свободно!

GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
GPT-OSS-20B — 21B параметров, работает на 16GB GPU
👍62👎1🥰1
CUTLASS 4.1 — фреймворк для высокопроизводительных матричных вычислений на CUDA. Библиотека NVIDIA предоставляет низкоуровневые абстракции для эффективной реализации операций линейной алгебры на GPU. Последняя версия добавляет поддержку архитектур Blackwell и экспериментальный Python-интерфейс CuTe DSL для быстрой разработки ядер без глубоких знаний C++.

Инструмент имеет гибкую систему шаблонов, позволяющая тонко настраивать вычисления под разные типы данных и аппаратные особенности современных GPU NVIDIA.

🤖 GitHub

@machinelearning_ru
4👍3🔥2
Машинное обучение RU
📊 Независимые бенчмарки gpt-oss от OpenAI OpenAI выпустила два MoE-модели с открытым весом — и это, похоже, самые *интеллектуальные американские open-source LLM* на сегодня: 🧠 gpt-oss-120b (116.8B параметров, 5.1B активных): *Intelligence Index: 58* 🧠
🆕 OpenAI выложила в опенсорс рассуждающие модели gpt‑oss‑120b и gpt‑oss‑20b. Теперь их можно запускать по API в Yandex Cloud AI Studio.

📌 Почему это важно:

• Развернуть такие модели локально сложно — нужны большие вычислительные мощности и поддержка инфраструктуры.
• Прямое использование API OpenAI может не соответствовать требованиям ФЗ‑152 и закона о локализации данных.
• В Yandex Cloud данные хранятся и обрабатываются в российских дата‑центрах.

Модели сопоставимы по качеству с o3‑mini и o4‑mini, а в отдельных задачах превосходят GPT‑4o и o1. Поддерживают настраиваемую интенсивность рассуждений и скорость ответа.

Сценарии применения: автоматизация рекрутмента, техподдержки, анализ документов, первичная коммуникация с клиентами. Вскоре появится возможность вызова функций — можно будет интегрировать поиск информации в интернете прямо при генерации ответа. За использование модели 120b берут 30 копеек за 1000 токенов, для “младшей” модели – 10 копеек.

@machinelearning_ru
👍21🔥1
🚀 SWE‑Swiss: рецепт обучения LLM для быстрого решения багов

SWE‑Swiss-32B — модель с 32 млрд параметров, оптимизированная для эффективного исправления программных проблем.

Что входит в рецепт обучения:
- Мulti‑Task Fine‑Tuning + Reinforcement Learning — обучаем модель сразу на нескольких навыках и усиливаем через RL.
- Ключевые навыки:
- Локализация ошибок (файлы)
- Генерация патчей
- Создание unit-тестов

По результатам тестов на SWE‑bench Verified, модель показывает производительность на уровне передовых закрытых моделей, несмотря на свою среднюю размерность.

Плюсы:
- Доступно на Hugging Face под лицензией MIT
- Использует transformers — просто интегрировать в пайплайн

Почему это круто:
SWE‑Swiss — пример того, как грамотно комбинация мультизадочного обучения и RL позволяет добиться высоких результатов в решении понятийно сложных задач, делая LLM доступнее и эффективнее для разработчиков.

📑Notion: https://pebble-potato-fc6.notion.site/SWE-Swiss-A-Multi-Task-Fine-Tuning-and-RL-Recipe-for-High-Performance-Issue-Resolution-21e174dedd4880ea829ed4c861c44f88?pvs=143
💻Github: https://github.com/zhenyuhe00/SWE-Swiss
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1🔥1
🧠 Большинство AI‑агентов не понимают друг друга — задачи повторяются, токены тратятся впустую, и всё ломается.

📊 Новый обзор сравнил 24 фреймворка для AI-агентов и показал, что не хватает общей спецификации, из-за чего агенты не могут "работать в команде".

🤖 Что такое агентный воркфлоу?
Это playbook для LLM: какие подзадачи запускать, в каком порядке и с какими внешними инструментами.
Без него — модель либо тратит токены на догадки, либо забывает, что сделала 2 минуты назад.

🧩 Авторы разделили системы по 2 осям:
- Функции: планирование задач, вызов инструментов, память, командная работа
- Архитектура: роли, потоки данных, протоколы

⚠️ Все используют Python-цепочки и JSON-конфиги, но:
форматы сообщений разные
названия ролей свои
схемы инструментов — кастомные

Это мешает совместимости, тормозит безопасность и делает баги вроде tool poisoning труднее устранимыми.

Решения, предложенные в статье:
- Открытые протоколы: MCP, A2A
- Loop-архитектуры: planner → executor → feedback
- Планировщики, чтобы агенты не дрались за один ресурс

📌 Вывод: пока у нас нет общего языка воркфлоу, агентные системы останутся изолированными островами.

📝 Читать статью: https://arxiv.org/abs/2508.01186
👍42
📌 oneDNN — высокопроизводительная библиотека для ускорения нейронных сетей, разработанная Intel. Этот open-source проект оптимизирует вычисления для процессоров Intel и ARM, а также поддерживает экспериментальные реализации под NVIDIA/AMD GPU.

Библиотека выступает строительным блоком для популярных фреймворков вроде PyTorch и TensorFlow, автоматически подбирая оптимальные инструкции CPU через JIT-компиляцию. Интересно, что она также работает на экзотических архитектурах — от IBM z/Architecture до RISC-V, хотя поддержка последних пока ограничена.

🤖 GitHub

@machinelearning_ru
6👍3
А вот это реально разумно
🔥92👍1
2025/09/20 17:20:41
Back to Top
HTML Embed Code: