Telegram Web
Forwarded from Machinelearning
💡 Исследователи из ByteDance и Stanford предложили новый метод для генерации длинных видео — Mixture of Contexts.

🔑 В чём проблема:
Когда видео становится длинным, внимание модели сильно «раздувается»: растёт стоимость вычислений, модель теряет детали на генерациях, забывает персонажей и «дрейфует».

Чем интересен Mixture of Contexts:
- Видео разбивается на куски (кадры, шоты, подписи).
- Каждый запрос выбирает только нужные чанки, вместо того чтобы учитывать всю историю.
- Для этого используется простая оценка релевантности: сравнение признаков чанков с текущим запросом.
- Обязательно учитываются два «якоря»: полный текстовый промпт и локальный шот для деталей видео.
- Causal mask блокирует внимание к будущим кадрам, чтобы не было зацикливаний.
- Дальше применяется Flash Attention только к выбранным чанкам — вычисления растут не с длиной всего видео, а только с полезным контекстом.

📊 Результаты:
- В 7 раз меньше FLOPs
- В 2.2 раза быстрее работа
- На длинных сценах (180k токенов) отсекается 85% ненужного внимания

🎥 Итог:
- Короткие клипы сохраняют качество
- Длинные сцены становятся более плавными, а персонажи — стабильными
- Время генерации заметно сокращается

Главное: модель учится сама понимать, на что смотреть, получая «память» на минуты видео без изменения базовой архитектуры.

🟠 Подробнее

@ai_machinelearning_big_data

#AI #ML #ByteDance #Stanford #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41
🚀 Интеллектуальное управление ошибками в Rust

unwrap_or_ai — это революционное решение для обработки ошибок, использующее ИИ для создания идеальных запасных данных. Система анализирует структуру вашего кода и мгновенно генерирует контекстуальные ответы, обеспечивая надежность и оптимизацию производственных процессов.

🚀 Основные моменты:
- 🧠 Глубокий анализ кода для точного восстановления
- Мгновенное создание запасных данных
- 🎯 Интеллектуальное предсказание потребностей приложения
- 🔄 Легкая интеграция в существующий код
- 📈 Оптимизировано для корпоративного использования

📌 GitHub: https://github.com/NoodlesOfWrath/unwrap_or_ai

#rust
3👍1🔥1🤬1
AI-агенты: переход от генерации к действиям

LLM уже научились писать тексты и код. Следующий шаг — агенты, которые способны сами понять, как решить задачу, и использовать свои знания в реальных сценариях: подключаться к сервисам, совершать транзакции, управлять инфраструктурой.

В подкасте «Мы обречены» обсуждают новые стандарты и инструменты для работы с агентами, первые отрасли, где они появятся, и как подготовиться к их внедрению.

@machinelearning_ru
🔥32
This media is not supported in your browser
VIEW IN TELEGRAM
Эволюция моделей OpenAI на примере генерации игры-песочницы.
4👍2
👁️🧠 R-4B: маленькая, но умная мультимодальная модель

Исследователи представили R-4B — vision-модель с 4B параметров, которая догоняет и даже обгоняет 16B аналоги в сложных визуальных задачах рассуждения.

В чём фишка:
- Модель сама решает, думать пошагово или отвечать сразу.
- На простых задачах — короткий ответ, экономия токенов.
- На сложных — развёрнутый reasoning со «scratchpad».

⚙️ Как обучали:
1. Дали два режима — reasoning (с тэгами `<think>…</think>`) и direct (пустые `<think></think>`).
2. Использовали Bi-mode Policy Optimization: для каждого промпта модель генерирует оба ответа, система оценивает и учит, когда стоит «думать».

📊 Итог:
- На лёгких задачах R-4B работает быстро и экономно.
- На тяжёлых — разворачивает reasoning и показывает качество на уровне 16B моделей, оставаясь компактной.
- Новый SOTA на 25 бенчмарках.

🔗 Paper: arxiv.org/abs/2508.21113

#AI #Vision #Multimodal #Research
🔥82👍2
📌Приглашаем вас на три бесплатных вебинара курса «MLOps»

💎Вебинар №1: «MLFlow - контроль над ML-экспериментами»

4 сентября в 20:00 мск

🔹На вебинаре:
• Узнаете как проводить ML эксперименты и главное как их контролировать;
• Поймете что такое MLFlow и какие компоненты он содержит;
• Разберём основные возможности MLFlow: трекинг экспериментов, управление моделями и воспроизводимость;
• Проведём живую демонстрацию, где шаг за шагом внедрим MLFlow в ML-проект.

💎Вебинар №2: «Вывод ML моделей в промышленную среду на примере онлайн-скоринга»

11 сентября в 20:00 мск

🔹На вебинаре:
• Направления развития в DataScience
• Построение модели машинного обучения на примере скоринга
• Интеграция модели в промышленную среду на примере API на Flas

💎Вебинар №3: «Serverless подход в MLOps для небольших ML-проектов»

18 сентября в 18:00 мск

🔹На вебинаре:
• Преимущества serverless подхода для развертывания ML-моделей и когда его стоит использовать.
• Развертывание ML-модели с помощью Yandex Cloud: Object Storage и Cloud Functions.
• Создание и тестирование API для инференса модели.

🎁Участники вебинаров получат подарки на почту🎁

Регистрация на вебинары ➡️ OTUS.RU


Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ", ИНН: 9705100963
👍51
📦 Truss — упаковка ML-моделей для продакшена без головной боли. Этот инструмент решает классическую проблему ML-инженеров: как быстро перевести модель из экспериментальной среды в продакшен. С ним можно упаковать в контейнер не только код модели, но и все зависимости — от весов до специфичных версий фреймворков.

Благодаря Truss один и тот же контейнер будет одинаково работать и на локальной машине, и в облаке. При этом не нужно возиться с Dockerfile и Kubernetes-манифестами — достаточно описать модель в Python-классе и указать зависимости в YAML.

🤖 GitHub

@machinelearning_ru
2👍2🔥2
Osaurus от Dinoki-AI 🚀

Нативный сервер LLM для Apple Silicon (M-series). Работает локально на Mac с M1 и новее.

SwiftUI-приложение + HTTP-сервер на SwiftNIO
Поддержка API OpenAI и Ollama
Function/tool calling, стриминг
Управление моделями прямо из интерфейса


🔗 https://github.com/dinoki-ai/osaurus

@machinelearning_ru
4🔥4👍2
Сфера в Лас-Вегасе установила новый скин 🫥
Please open Telegram to view this post
VIEW IN TELEGRAM
😁163👍2🔥2
⚡️ Можно ли сделать модель с 350M параметрами, которая будет работать на уровне GPT-4o в узкой задаче?

В опенсорс вышла LFM2-350M, дообученная для реального двунаправленного перевода японский ⇄ английский в режиме реального времени (короткий и средний контекст).

Результаты:

🟢Лучшая в своём классе с огромным отрывом
🟢Обходит модели, которые в 100 раз больше по параметрам

Маленькие специализированные модели начинают уверенно конкурировать с гигантами.

Download the bundle in LEAP:
https://leap.liquid.ai/models?model=lfm2-350m-enjp-mt

LFM2-350M-ENJP-MT: https://huggingface.co/LiquidAI/LFM2-350M-ENJP-MT

🟢 LFM2-350M-ENJP-MT-GGUF:
https://huggingface.co/LiquidAI/LFM2-350M-ENJP-MT-GGUF
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍9🥰2
🔥Прими участие в Хакатоне Т1 в Нижнем Новгороде и поборись за призовой фонд 600 000 рублей!

📅 Когда: 19 – 22 сентября
🌐 Формат: онлайн + финал на площадке 

Участвуй, если ты:
🔹студент тех/ИТ-направлений;
🔹развиваешься в dev, аналитике, дизайне, AI/DS/ML, DevOps;
🔹сможешь быть в Нижнем Новгороде 22-09.

Выбери свой кейс:
🔸PingTower — сервис круглосуточного отслеживания доступности сайтов и мгновенных уведомлений о сбоях, позволяющий бизнесу не терять клиентов.
🔸HR Консультант — ИИ-консультант для карьерных сценариев и поиска талантов по умным фильтрам.

Почему стоит участвовать:
🔻Кейс в портфолио и полезная обратная связь от менторов Т1;
🔻Шанс проявить себя, чтобы начать карьеру в одной из крупнейших ИТ-компаний;
🔻Реальный опыт командной работы.

Регистрация открыта!
 ➡️ Успей до 17 сентября по ссылке.

Ты не из Нижнего Новгорода? Смотри расписание хакатонов в других городах.

#реклама
О рекламодателе
🧠 Open Data Synthesis for Deep Research (InfoSeek): как «синтезировать» сложные ресёрч-задачи для LLM

Что за идея
Авторы предлагают формализовать deep-research как иерархические задачи с проверяемым ответом, а затем генерировать такие задачи автоматически — чтобы учить и тестировать модели на реальных сценариях «поиска + рассуждений». Это снимает боль с дефицитом хороших датасетов под агенты «как Perplexity/OpenAI DR».

Как это работает (по-простому)
1) Из веба строится «дерево исследования»: главный вопрос → подзадачи → факты/источники.
2) Узлы дерева превращаются в естественно-языковые подпро́сы, сохраняются метки: какие документы/шаги нужны.
3) Из дерева собирают финальные вопросы и треки рассуждений, пригодные для обучения/оценки.
4) На выходе — большой набор примеров + аккуратный тестовый сплит, чтобы не ловить утечки знаний.

Почему это важно
- Учим модели искать, планировать и проверять источники, а не просто вспоминать факты.
- Получаем мета-информацию (шаги, ретривальные метки) — полезно для сложных режимов обучения и анализа качества цитирования.
- Данные масштабируются: можно быстро наращивать объём и сложность задач.

Результаты (сигналы)
- Маленькие LLM ~3B, обученные на InfoSeek, обгоняют крупные 32B-модели и лёгкие коммерческие API на свежем бенчмарке BrowseComp-Plus; местами выходят на уровень сильных API.
- Это прямой намёк: лучшие задачи > просто большие параметры. Для DR-агентов решает качество/структура данных.

Как применять у себя
- Если делаете «исследовательского» агента:
• учите/дообучайте на иерархически синтезированных примерах;
• оценивайте на фиксированном корпусе (в духе BrowseComp-Plus), чтобы честно сравнивать ретривер и LLM;
• храните шаги рассуждений и ссылки — это даёт прозрачность и почву для улучшений (награды, дедуп, верификация).

TL;DR
InfoSeek показывает, как синтезировать качественные deep-research задачи с шагами и источниками. На таких данных даже компактные модели учатся искать, планировать и проверять факты — и выигрывают у более крупных собеседников.

https://huggingface.co/datasets/Lk123/InfoSeek
3🔥3
🔥 Успех в IT = скорость + знания + окружение

Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!

AI: www.tgoop.com/ai_machinelearning_big_data
Python: www.tgoop.com/pythonl
Linux: www.tgoop.com/linuxacademiya
Собеседования DS: www.tgoop.com/machinelearning_interview
C++ www.tgoop.com/cpluspluc
Docker: www.tgoop.com/DevopsDocker
Хакинг: www.tgoop.com/linuxkalii
Devops: www.tgoop.com/DevOPSitsec
Data Science: www.tgoop.com/data_analysis_ml
Javascript: www.tgoop.com/javascriptv
C#: www.tgoop.com/csharp_1001_notes
Java: www.tgoop.com/java_library
Базы данных: www.tgoop.com/sqlhub
Python собеседования: www.tgoop.com/python_job_interview
Мобильная разработка: www.tgoop.com/mobdevelop
Golang: www.tgoop.com/Golang_google
React: www.tgoop.com/react_tg
Rust: www.tgoop.com/rust_code
ИИ: www.tgoop.com/vistehno
PHP: www.tgoop.com/phpshka
Android: www.tgoop.com/android_its
Frontend: www.tgoop.com/front
Big Data: www.tgoop.com/bigdatai
МАТЕМАТИКА: www.tgoop.com/data_math
Kubernets: www.tgoop.com/kubernetc
Разработка игр: https://www.tgoop.com/gamedev
Haskell: www.tgoop.com/haskell_tg
Физика: www.tgoop.com/fizmat

💼 Папка с вакансиями: www.tgoop.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tgoop.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tgoop.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tgoop.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tgoop.com/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: www.tgoop.com/memes_prog
🇬🇧Английский: www.tgoop.com/english_forprogrammers
🧠ИИ: www.tgoop.com/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tgoop.com/addlist/BkskQciUW_FhNjEy

Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
👍2
✔️ Kimi Ai обновила модель K2.

Новая версия м индексом 0905 получила двукратное увеличение контекстного окна со 128K до 256K токенов, улучшение агентных возможностей для написания кода, повышение качества генерации фронтенд-кода и увеличение скорости работы API до 60-100 токенов в секунду.

Kimi K2 — это открытая модель с архитектурой MoE на 1 триллион общих и 32 миллиарда активных параметров. Версия 0905 уже доступна в официальных приложениях Kimi, а также для самостоятельного развертывания через репозитории
🟢Hugging Face
🟢ModelScope.
🟢Kimi Ai в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74🔥3
💸 OpenAI тратит намного больше, чем ожидалось

По данным The Information, компания подняла прогноз своих расходов до $115 млрд к 2029 году — это на $80 млрд выше прошлых оценок.

В этом году OpenAI «сожжёт» свыше $8 млрд, что на $1.5 млрд больше, чем планировалось ранее. Основная причина — огромные счета за аренду облачных серверов, где OpenAI уже стал одним из крупнейших клиентов в мире.

📌 Чтобы уменьшить затраты, компания собирается строить собственные дата-центры и разрабатывать чипы.

#OpenAI #AI #Cloud #Finance
🔥7👍4🥰31
🛠️ Оптимизированные компиляторы с LLVM

LLVM — это мощный инструмент для создания высокоэффективных компиляторов и сред выполнения. Он включает в себя множество компонентов, таких как Clang для компиляции C и C++, а также библиотеки и утилиты для работы с промежуточными представлениями.

🚀 Основные моменты:
- Поддержка множества языков программирования.
- Включает стандартную библиотеку libc++.
- Инструменты для анализа и оптимизации биткода.
- Активное сообщество и поддержка.

📌 GitHub: https://github.com/llvm/llvm-project

#cpp
4👍3🔥3
2025/09/17 11:51:54
Back to Top
HTML Embed Code: