🩺 II-Medical-32B-Preview - новый мощный медецинский LLm
🏆 90% на MedQA | 71.5% средний результат
(для сравнения: студенты-медики ~60%)
💻 Открытый, код и датасеты
🚀 Работает на одном GPU
+ Внутри 3 датасета:
II-Medical-SFT, II-Medical-RL, ChatDoctor-RL
https://huggingface.co/Intelligent-Internet/II-Medical-32B-Preview
🏆 90% на MedQA | 71.5% средний результат
(для сравнения: студенты-медики ~60%)
💻 Открытый, код и датасеты
🚀 Работает на одном GPU
+ Внутри 3 датасета:
II-Medical-SFT, II-Medical-RL, ChatDoctor-RL
https://huggingface.co/Intelligent-Internet/II-Medical-32B-Preview
🔥8🥰4❤3
📢 Skywork представила Skywork‑Reward‑V2 — новый подход к обучению reward‑моделей через синергию человека и ИИ
🔍 В свежем релизе Skywork показала, как масштабировать создание данных предпочтений (preference data) с помощью Human‑AI Synergy — совместного отбора, микширования и обучения.
Что важно:
✅ Детализированная методология по сбору и очистке данных для reward-моделей
✅ Использование различных источников: человеческие оценки, LLM-аннотации, активное обучение
✅ Комбинация нескольких подходов: supervision, self-training, rejection sampling, data ranking
✅ Отличные результаты на новом RewardBench 2 — одном из первых публичных сравнений моделей
🚀 Модели уже опубликованы: Skywork‑Reward‑V2 теперь доступна и готова к использованию в вашем fine-tuning пайплайне.
📖 Чтение обязательно для тех, кто строит RLAIF и хочет улучшить reward-сигналы без десятков тысяч ручных аннотаций.
🔗 Подробнее: https://huggingface.co/Skywork/Skywork-Reward-V2
🔍 В свежем релизе Skywork показала, как масштабировать создание данных предпочтений (preference data) с помощью Human‑AI Synergy — совместного отбора, микширования и обучения.
Что важно:
✅ Детализированная методология по сбору и очистке данных для reward-моделей
✅ Использование различных источников: человеческие оценки, LLM-аннотации, активное обучение
✅ Комбинация нескольких подходов: supervision, self-training, rejection sampling, data ranking
✅ Отличные результаты на новом RewardBench 2 — одном из первых публичных сравнений моделей
🚀 Модели уже опубликованы: Skywork‑Reward‑V2 теперь доступна и готова к использованию в вашем fine-tuning пайплайне.
📖 Чтение обязательно для тех, кто строит RLAIF и хочет улучшить reward-сигналы без десятков тысяч ручных аннотаций.
🔗 Подробнее: https://huggingface.co/Skywork/Skywork-Reward-V2
Магистратура по Data Science от Авито и ФКН ВШЭ — осваивайте современные навыки в ML вместе с экспертами топового вуза и лидерами рынка цифровых продуктов.
Почему стоит подать заявку:
— практика на реальных digital-продуктах с миллионами пользователей;
— обучение у топов индустрии: ведущих преподавателей ВШЭ и экспертов Авито;
— применение современных инструментов для анализа данных, ML, работы с ИИ и управления проектами;
— диплом гособразца и комфортный график — очно или онлайн, удобно совмещать с работой.
Подавайте заявку и делайте буст в карьере — получите возможность работать в одной из сильнейших DS-команд на рынке: https://u.to/xvxOIg
Получите шанс занять одно из 30 бюджетных мест и построить уникальный образовательный трек — будут актуальные дисциплины по выбору и возможность пройти оплачиваемую стажировку в Авито уже во время учёбы!
Почему стоит подать заявку:
— практика на реальных digital-продуктах с миллионами пользователей;
— обучение у топов индустрии: ведущих преподавателей ВШЭ и экспертов Авито;
— применение современных инструментов для анализа данных, ML, работы с ИИ и управления проектами;
— диплом гособразца и комфортный график — очно или онлайн, удобно совмещать с работой.
Подавайте заявку и делайте буст в карьере — получите возможность работать в одной из сильнейших DS-команд на рынке: https://u.to/xvxOIg
❤1👍1
🔥 Beelzebub — продвинутый low-code honeypot с LLM 🔥
Beelzebub — легковесный honeypot-фреймворк с ядром LLM, текстом симулирующий «живую» систему. Позволяет безопасно ловить атакующих, создавая иллюзию реального сервера.
Основные возможности:
- Модульная настройка через YAML-конфиги для добавления сервисов и портов
- Поддержка SSH, HTTP, TCP и MCP-протоколов на основе ИИ
- Сбор метрик Prometheus и интеграция с ELK
- Запуск через Docker, Helm или Kubernetes
Быстрый старт:
📌 Github
Beelzebub — легковесный honeypot-фреймворк с ядром LLM, текстом симулирующий «живую» систему. Позволяет безопасно ловить атакующих, создавая иллюзию реального сервера.
Основные возможности:
- Модульная настройка через YAML-конфиги для добавления сервисов и портов
- Поддержка SSH, HTTP, TCP и MCP-протоколов на основе ИИ
- Сбор метрик Prometheus и интеграция с ELK
- Запуск через Docker, Helm или Kubernetes
Быстрый старт:
git clone https://github.com/mariocandela/beelzebub.git
cd beelzebub
docker-compose up -d
📌 Github
👍2❤1🔥1
Модель генерации изображений в стиле аниме основана на Stable Diffusion 1.5, генерирует в разрешении до 1024x1024 пикселей и использует предпоследний слой энкодера CLIP.
Diffusion Anime V2 распространяется под двойной лицензией, которая допускает только некоммерческое использование с обязательным указанием авторства. NovelAI напоминает, что V2 является устаревшей версией, а все новые модели остаются проприетарными и эксклюзивными для их веб-сервиса. Веса Diffusion Anime V2 доступны на Hugging Face.
blog.novelai.net
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1👍1🔥1
Forwarded from Machinelearning
Инженеры Google DeepMind решили вдохнуть новую жизнь в классический подход «энкодер-декодер» выпустив семейство моделей T5Gemma.
Главная интрига заключается не в том, что они сделали, а в том, как. Вместо того чтобы обучать модели с нуля, они разработали метод «адаптации»: взяли уже готовую и предобученную модель-декодер Gemma 2 и, по сути, пересобрали ее в двухкомпонентную энкодер-декодерную архитектуру.
Метод открыл дорогу для интересных экспериментов. Например, стало возможно создавать «несбалансированные» модели, комбинируя большой энкодер с маленьким декодером, скажем, 9-миллиардный энкодер и 2-миллиардный декодер.
Такая конфигурация идеальна для задач суммаризации, где глубокое понимание исходного текста (работа энкодера) гораздо важнее, чем генерация сложного и витиеватого ответа (работа декодера). Это дает инженерам гибкий инструмент для тонкой настройки баланса между качеством и скоростью работы.
На тестах T5Gemma показывает результаты на уровне или даже лучше своих «однокомпонентных» аналогов. Асимметричная модель T5Gemma 9B-2B демонстрирует значительно более высокую точность, чем базовая Gemma 2 2B, но при этом скорость инференса у них почти идентична.
Даже сбалансированная T5Gemma 9B-9B оказывается точнее, чем Gemma 2 9B, при сопоставимой задержке. Это прямое доказательство того, что двухкомпонентная архитектура может быть и умнее, и эффективнее.
T5Gemma показывает впечатляющий рост в задачах, требующих логических рассуждений. Например, на математическом тесте GSM8K модель T5Gemma 9B-9B набирает на 9 баллов больше, чем Gemma 2 9B.
Эффект становится еще более выраженным после инструктивной донастройки. Здесь разрыв в производительности резко увеличивается: на бенчмарке MMLU модель T5Gemma 2B-2B IT опережает аналог Gemma 2 2B IT почти на 12 баллов.
@ai_machinelearning_big_data
#AI #ML #T5Gemma #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍2
✨ Google представили GenAI Processors — open-source библиотеку для создания AI-приложений в реальном времени
GenAI Processors — это новый инструмент от команды Google DeepMind, разработанный для быстрой сборки потоковых и мультимодальных AI‑систем. Библиотека обеспечивает удобную работу с цепочками обработки данных, модульную архитектуру и поддержку стриминга.
Основные возможности:
— Потоковый ввод/вывод (stream-based I/O)
— Простая сборка пайплайнов через chaining
— Модульность и переиспользуемость (composability)
— Поддержка Gemini и Gemini Live API
— Асинхронная архитектура с минимальной задержкой
🔧 GenAI Processors позволяет разработчикам легко собирать голосовых агентов, мультимодальные интерфейсы и реактивные приложения на базе LLM.
🔗 GitHub: https://github.com/google-gemini/genai-processors
📖 Блог: https://developers.googleblog.com/en/genai-processors
GenAI Processors — это новый инструмент от команды Google DeepMind, разработанный для быстрой сборки потоковых и мультимодальных AI‑систем. Библиотека обеспечивает удобную работу с цепочками обработки данных, модульную архитектуру и поддержку стриминга.
Основные возможности:
— Потоковый ввод/вывод (stream-based I/O)
— Простая сборка пайплайнов через chaining
— Модульность и переиспользуемость (composability)
— Поддержка Gemini и Gemini Live API
— Асинхронная архитектура с минимальной задержкой
🔧 GenAI Processors позволяет разработчикам легко собирать голосовых агентов, мультимодальные интерфейсы и реактивные приложения на базе LLM.
🔗 GitHub: https://github.com/google-gemini/genai-processors
📖 Блог: https://developers.googleblog.com/en/genai-processors
🔥4👍3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Крутой способ управлять AI-видео: LTX-Video с Control LoRA теперь доступен в Spaces!
🔥 Что это такое:
- Качество ControlNet, но без изменения архитектуры
- Летает быстрее большинства текущих решений
- Поддерживает 3 типа контроля: canny, depth, pose
Простое подключение, стабильный результат — попробуй генерацию с canny LoRA прямо сейчас👇
spaces/ltx-video/control-lora
https://huggingface.co/spaces/Lightricks/ltx-video-iclora
🔥 Что это такое:
- Качество ControlNet, но без изменения архитектуры
- Летает быстрее большинства текущих решений
- Поддерживает 3 типа контроля: canny, depth, pose
Простое подключение, стабильный результат — попробуй генерацию с canny LoRA прямо сейчас👇
spaces/ltx-video/control-lora
https://huggingface.co/spaces/Lightricks/ltx-video-iclora
👍2❤1
Forwarded from Machinelearning
Это модель, которая не просто доказывает теоремы, а учится на своих ошибках.
Kimina-Prover-72B создана на базе Qwen2.5-72B, которая бьет рекорды в формальной математике на Lean 4 и ее облегченные версии 8 и 1,7 миллиарда параметров.
Numina - это некоммерческая научная коллаборация, ориентированная на развитие ИИ в области математики. Ее миссия: создание и публикация обширных баз данных математических задач, разработку open-source ИИ-решателя для их обработки и инструментов для поддержки совместной работы людей и ИИ в фундаментальных науках.
На популярном бенчмарке miniF2F Kimina-Prover-72B достигла внушительной точности в 92.2%, оставив позади Deepseek-Prover-V2 671B.
Вместо того чтобы пытаться решить сложную задачу в лоб, система научилась декомпозировать ее. Она самостоятельно генерирует, комбинирует и применяет промежуточные утверждения, или леммы, выстраивая из них длинные логические цепочки. По сути, это рекурсивный поиск: для доказательства основной теоремы модель может сначала доказать несколько вспомогательных лемм.
Система отслеживает «рейтинг полезности» каждой леммы и отбраковывает те, что ведут в тупик. Вторым эшелоном идет механизм проверки на вменяемость. Прежде чем использовать новую лемму, модель пытается доказать ее отрицание. Если это удается, значит, лемма противоречива и ее сразу выбрасывают. Такая комбинация гарантирует логическую строгость и надежность всего доказательства.
В отличие от других систем, которые в случае неудачи просто начинают заново, Kimina-Prover умеет читать сообщения об ошибках от компилятора Lean и предлагать исправления.
Для этого ее специально дообучали на датасете из комбинаций «неверное доказательство – фидбэк – верное доказательство». Чтобы обучение шло стабильно, использовали стратегию Batched Failure Replay: все неудачные попытки с одной итерации собираются и используются как обучающий батч для следующей. И это оказалось куда эффективнее, чем бездумный перебор вариантов при том же бюджете вычислений.
@ai_machinelearning_big_data
#AI #ML #LLM #TTRL #Reasoning #KiminaProver
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2