📊 Новый подход к графовым нейросетям: WaveGC
На ICML представили WaveGC — графовую сверточную модель, которая заменяет обычные фильтры на полноценные спектральные вейвлеты. Это позволяет обрабатывать и локальные, и дальние зависимости в графе эффективнее, чем стандартные GCN и даже граф‑трансформеры.
🧠 Главное:
- Вместо обычных функций-фильтров — матрицы фильтров на основе вейвлетов.
- Архитектура учитывает мульти-частотную структуру графа.
- В основе — спектральное разложение через чебышёвские полиномы, с разделением на чётные и нечётные компоненты.
📈 Результаты:
- Обгоняет SOTA в задачах node classification, link prediction и других.
- Особенно хорошо работает в задачах с разной длиной связей (short/long-range dependencies).
🛠️ Код уже доступен — легко интегрировать и попробовать в своих задачах на графах.
WaveGC показывает: переход от классических фильтров к спектральным вейвлетам — это не просто теоретический шаг, а реальный прирост качества.
🟠 ArXiv: https://arxiv.org/pdf/2405.13806
🟠 GitHub: https://github.com/liun-online/WaveGC
На ICML представили WaveGC — графовую сверточную модель, которая заменяет обычные фильтры на полноценные спектральные вейвлеты. Это позволяет обрабатывать и локальные, и дальние зависимости в графе эффективнее, чем стандартные GCN и даже граф‑трансформеры.
🧠 Главное:
- Вместо обычных функций-фильтров — матрицы фильтров на основе вейвлетов.
- Архитектура учитывает мульти-частотную структуру графа.
- В основе — спектральное разложение через чебышёвские полиномы, с разделением на чётные и нечётные компоненты.
📈 Результаты:
- Обгоняет SOTA в задачах node classification, link prediction и других.
- Особенно хорошо работает в задачах с разной длиной связей (short/long-range dependencies).
🛠️ Код уже доступен — легко интегрировать и попробовать в своих задачах на графах.
WaveGC показывает: переход от классических фильтров к спектральным вейвлетам — это не просто теоретический шаг, а реальный прирост качества.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2🔥2
Привет! Рекомендую почитать обзор статьи от команды AI VK с ICML, в которой авторы нашли связь между «воронкой внимания» и сбоями LLM на повторяющихся токенах — и предложили патч, который частично решает проблему без потерь в качестве.
Читать полностью
Читать полностью
Telegram
AI VK Hub
Всем привет. Подготовили краткий обзор статьи про странности LLM при простых запросах.
Существует два широко известных эффекта в мире LLM.
🔸Один из них – воронка внимания (attention sink): эффект, при котором первый токен в последовательности получает «большее…
Существует два широко известных эффекта в мире LLM.
🔸Один из них – воронка внимания (attention sink): эффект, при котором первый токен в последовательности получает «большее…
❤7
Media is too big
VIEW IN TELEGRAM
Amazon анонсировала S3 Vectors - нативную поддержку векторного поиска прямо внутри своего вездесущего объектного хранилища. Заявлено, что это может снизить затраты на хранение и обработку векторов до 90%.
По сути, AWS предлагает не отдельный сервис, а новый тип бакета
vector bucket. Внутри него вы создаете векторные индексы, указывая размерность векторов и метрику расстояния (косинусную или евклидову).Вы просто загружаете в индекс свои эмбеддинги вместе с метаданными для фильтрации, а S3 берет на себя всю грязную работу по хранению, автоматической оптимизации и обеспечению субсекундного ответа на запросы. Никакого управления инфраструктурой.
Один бакет может содержать до 10 тысяч индексов, а каждый индекс, в свою очередь, десятки миллионов векторов.
S3 Vectors бесшовно интегрируется с Bedrock Knowledge Bases. Теперь при создании базы знаний для RAG-приложения можно просто указать S3-бакет в качестве векторного хранилища.
Процесс создания RAG-пайплайна для тех, кто уже живет в облаке AWS, упрощается до нескольких кликов. То же самое касается и SageMaker Unified Studio, где эта интеграция тоже доступна из коробки.
AWS предлагает гибкую, многоуровневую стратегию. Нечасто используемые или «холодные» векторы можно экономично хранить в S3 Vectors. А когда для части данных потребуется максимальная производительность и низкая задержка в реальном времени, например, для системы рекомендаций, их можно быстро экспортировать в OpenSearch.
Это очень прагматичный инженерный подход, позволяющий балансировать между стоимостью и производительностью.
Пока сервис находится в статусе превью и доступен в регионах US East (N. Virginia), US East (Ohio), US West (Oregon), Europe (Frankfurt), and Asia Pacific (Sydney) Regions.
Попробовать S3 Vectors можно в Amazon S3 console.
@ai_machinelearning_big_data
#AI #ML #RAG #Amazon
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥1
🚀 Gemini CLI — крупное обновление!
На прошлой неделе команда Gemini CLI смержила ~150 pull-реквестов от 75+ контрибьюторов. И самое главное — теперь Gemini CLI встроен по умолчанию в @Firebase Studio.
Вот что нового:
▪ Поддержка вставки изображений из буфера обмена на macOS *(jaysondasher)*
▪ Глобальные настройки для администраторов *(chrstnb)*
▪ Новый флаг
▪ Автосаммари вывода инструментов с кастомными summarizer-ами *(anj-s)*
▪ Починена бесконечная петля на Windows *(SandyTao520)*
▪ Санитайзинг параметров для предотвращения 400 ошибок API *(BigUncle)*
▪ Улучшен headless auth — удобно для серверов *(NTaylorMullen)*
▪ CLI-опция для включения и отображения расширений *(bbiggs)*
▪ Обработка 429 (quota limit) ошибок теперь стабильнее *(bdmorgan)*
▪ Поддержка
▪ Переменная
▪ Настраиваемое число turn-ов в сессии *(anj-s)*
▪ В UI теперь видно, какая версия nightly *(miguelsolorio)*
📦 Установить:
https://github.com/google-gemini/gemini-cli
На прошлой неделе команда Gemini CLI смержила ~150 pull-реквестов от 75+ контрибьюторов. И самое главное — теперь Gemini CLI встроен по умолчанию в @Firebase Studio.
Вот что нового:
▪ Поддержка вставки изображений из буфера обмена на macOS *(jaysondasher)*
▪ Глобальные настройки для администраторов *(chrstnb)*
▪ Новый флаг
--prompt-interactive / -i для интерактивных запросов *(taeold)* ▪ Автосаммари вывода инструментов с кастомными summarizer-ами *(anj-s)*
▪ Починена бесконечная петля на Windows *(SandyTao520)*
▪ Санитайзинг параметров для предотвращения 400 ошибок API *(BigUncle)*
▪ Улучшен headless auth — удобно для серверов *(NTaylorMullen)*
▪ CLI-опция для включения и отображения расширений *(bbiggs)*
▪ Обработка 429 (quota limit) ошибок теперь стабильнее *(bdmorgan)*
▪ Поддержка
.svg файлов *(PugazhendhiDev)* ▪ Переменная
NO_BROWSER — для оффлайн аутентификации *(sethtroisi)* ▪ Настраиваемое число turn-ов в сессии *(anj-s)*
▪ В UI теперь видно, какая версия nightly *(miguelsolorio)*
📦 Установить:
npm i -g @google/gemini-cli
https://github.com/google-gemini/gemini-cli
❤1👍1
🚀 MIRIX — от Mirix-AI: универсальная платформа для работы с LLM и multimodal AI
Репозиторий [Mirix-AI/MIRIX](https://github.com/Mirix-AI/MIRIX) — открытая инфраструктура, которая превращает LLM и мультимодальные модели в мощный AI-движок:
🔧 Возможности MIRIX
▪ Плагин-фреймворк: легко подключать новые LLM или инструменты (видео, аудио, базы данных и т.д.)
▪ Пайплайны с логикой: можно комбинировать модели, автоматически включать chain-of-thought, добавлять кастомную логику
▪ Многопользовательский API: поддержка сессий, управление историей, токенами
▪ Интерактивные агенты: чат-боты с памятью, планированием и адаптивным поведением
💡 Почему это полезно
– Гибкая логика: можно внедрять flow, правила, разбивать задачу на этапы
– Мульти-модальность: работа не только с языковыми моделями, но и с аудио/видео/датасетами
– Развиваемость: легко подключать новые плагины, модели, фичи
– Продуктивность: готовый skeleton для создания собственного AI-сервиса — от прототипа до продакшена
Website: https://mirix.io
Paper: https://arxiv.org/abs/2507.07957
Github: https://github.com/Mirix-AI/MIRIX
Репозиторий [Mirix-AI/MIRIX](https://github.com/Mirix-AI/MIRIX) — открытая инфраструктура, которая превращает LLM и мультимодальные модели в мощный AI-движок:
🔧 Возможности MIRIX
▪ Плагин-фреймворк: легко подключать новые LLM или инструменты (видео, аудио, базы данных и т.д.)
▪ Пайплайны с логикой: можно комбинировать модели, автоматически включать chain-of-thought, добавлять кастомную логику
▪ Многопользовательский API: поддержка сессий, управление историей, токенами
▪ Интерактивные агенты: чат-боты с памятью, планированием и адаптивным поведением
💡 Почему это полезно
– Гибкая логика: можно внедрять flow, правила, разбивать задачу на этапы
– Мульти-модальность: работа не только с языковыми моделями, но и с аудио/видео/датасетами
– Развиваемость: легко подключать новые плагины, модели, фичи
– Продуктивность: готовый skeleton для создания собственного AI-сервиса — от прототипа до продакшена
Website: https://mirix.io
Paper: https://arxiv.org/abs/2507.07957
Github: https://github.com/Mirix-AI/MIRIX
👍7❤4
This media is not supported in your browser
VIEW IN TELEGRAM
📚 Infinite Wiki — бесконечная вики на стероидах
⁕ Каждое слово — это ссылка
⁕ Каждое определение — генерируется за 1 секунду в реальном времени
⁕ Работает на Gemini 2.5 Flash Lite
⁕ Поддерживает ASCII-диаграммы через 2.5 Flash
Живой, интерактивный текст — как если бы вся Википедия думала на лету.
https://aistudio.google.com/app/apps/drive/1J3Y2wXFzHKha4Qnb7UObSYAucBl1KPBO?showPreview=true
⁕ Каждое слово — это ссылка
⁕ Каждое определение — генерируется за 1 секунду в реальном времени
⁕ Работает на Gemini 2.5 Flash Lite
⁕ Поддерживает ASCII-диаграммы через 2.5 Flash
Живой, интерактивный текст — как если бы вся Википедия думала на лету.
https://aistudio.google.com/app/apps/drive/1J3Y2wXFzHKha4Qnb7UObSYAucBl1KPBO?showPreview=true
❤8👍2🔥2🤔1
💡 Крутая деталь из статьи про Gemini 2.5 — отказоустойчивая тренировка на TPU
В документации к Gemini 2.5 есть незаметный, но крутой инженерный момент:
если одна TPU-секция (slice) выходит из строя во время обучения, система не ждёт, пока освободится новая. Вместо этого они продолжают обучение на оставшихся ~97% TPU.
Это значит:
- никакого простоя
- никакой остановки тренировки
- просто пропускаем сбойный slice и двигаемся дальше
🧠 По сути, это дизайн с толерантностью к сбоям, встроенный прямо в систему планирования обучения.
🎩 И да — это отсылает к "старой школе Google", где железо было дешёвым и ненадёжным, но вся магия была в том, как они писали отказоустойчивый софт поверх этого железа.
👉 https://blog.codinghorror.com/building-a-computer-the-google-way/
Gemini 2.5 — это не только про модели. Это про инженерное мастерство, лежащее под капотом.
В документации к Gemini 2.5 есть незаметный, но крутой инженерный момент:
если одна TPU-секция (slice) выходит из строя во время обучения, система не ждёт, пока освободится новая. Вместо этого они продолжают обучение на оставшихся ~97% TPU.
Это значит:
- никакого простоя
- никакой остановки тренировки
- просто пропускаем сбойный slice и двигаемся дальше
🧠 По сути, это дизайн с толерантностью к сбоям, встроенный прямо в систему планирования обучения.
🎩 И да — это отсылает к "старой школе Google", где железо было дешёвым и ненадёжным, но вся магия была в том, как они писали отказоустойчивый софт поверх этого железа.
👉 https://blog.codinghorror.com/building-a-computer-the-google-way/
Gemini 2.5 — это не только про модели. Это про инженерное мастерство, лежащее под капотом.
❤7👍3🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🗣 FLOAT — новая open‑source модель для генерации говорящих портретов по аудио
Быстрее и реалистичнее SadTalker:
— Фотореалистичное видео с точной синхронизацией губ
— Плавные движения головы и эмоции
— Управление выражением лица и наклоном головы
💡 Основа — latent flow matching вместо диффузии:
⚡️ генерация быстрее, нет итераций, стабильные кадры
🌐 page: https://deepbrainai-research.github.io/float/
🧬code: https://github.com/deepbrainai-research/float
📄paper: https://arxiv.org/abs/2412.01064
🍊jupyter: https://github.com/camenduru/Float-jupyter
Быстрее и реалистичнее SadTalker:
— Фотореалистичное видео с точной синхронизацией губ
— Плавные движения головы и эмоции
— Управление выражением лица и наклоном головы
💡 Основа — latent flow matching вместо диффузии:
⚡️ генерация быстрее, нет итераций, стабильные кадры
🧬code: https://github.com/deepbrainai-research/float
📄paper: https://arxiv.org/abs/2412.01064
🍊jupyter: https://github.com/camenduru/Float-jupyter
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍3❤1
Forwarded from Machinelearning
China Telecom совместно с TeleAI спроектировали фреймворк AI Flow, который рассматривает ИИ и сети передачи данных как единую систему.
AI Flow - это не просто очередной метод оптимизации, а цельная парадигма. Она предлагает отойти от идеи монолитного ИИ к распределенному и коллаборативному, где интеллект может перетекать по сети туда, где он в данный момент нужнее всего и где для него есть ресурсы.
Идея в том, чтобы разумно распределять нагрузку: простейшие операции выполняются на самом гаджете, более сложные и требующие низкой задержки — на ближайшем edge-сервере, а самое тяжелые задачи и ресурсоемкий инференс остаются в облаке.
AI Flow предлагает конкретные механизмы для такой концепции - спекулятивное декодирование, где легкая модель на устройстве быстро генерирует черновик ответа, а мощная модель на эдже его лишь верифицирует и корректирует.
Это не просто набор моделей разного размера, а целое семейство с архитектурно согласованными скрытыми представлениями.
Маленькая, средняя и большая модели устроены настолько похоже, что они могут бесшовно передавать друг другу эстафету инференса.
Модель на смартфоне обрабатывает первые несколько слоев, а затем ее промежуточный результат подхватывает модель на сервере и продолжает вычисления ровно с того же места, без какого-либо дополнительного преобразования данных.
Пайплайн AI Flow делает возможным взаимодействие разных моделей, от LLM и VLM до диффузионных генераторов.
Через такую коллаборацию рождается эмерджентный интеллект – коллективная интуиция, превышающая возможности отдельных сетей, где несколько агентов генерируют черновые решения, затем сервер-оркестратор выбирает лучшие фрагменты, объединяет их и возвращает итоговый ответ для уточнения с учетом контекста каждого из них.
В этом и фишка: после такой синергии ответ становится богаче и более осмысленным, ведь сходятся разные точки зрения и узкопрофильные знания моделей-участников.
Ее крупнейшая ветвь содержит 7 млрд. параметров и способна порождать early-exit подсети с эффективным числом параметров в 3, 4, 5 и 6 млрд:
@ai_machinelearning_big_data
#AI #ML #LLM #AIFlow #TeleAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3
🔬 ROOT — мощный фреймворк для анализа научных данных. Проект CERN представляет собой комплексное решение для хранения и обработки больших объёмов научной информации. Изначально созданный для нужд Большого адронного коллайдера, он теперь применяется в различных исследовательских областях.
ROOT сочетает высокопроизводительные C++-библиотеки с интерактивной средой через интерпретатор Cling и интеграцией с Python. Система поддерживает многопоточную обработку через RDataFrame и предлагает инструменты для визуализации научных данных.
🤖 GitHub
@machinelearning_ru
ROOT сочетает высокопроизводительные C++-библиотеки с интерактивной средой через интерпретатор Cling и интеграцией с Python. Система поддерживает многопоточную обработку через RDataFrame и предлагает инструменты для визуализации научных данных.
🤖 GitHub
@machinelearning_ru
❤4👍4🥰2
Что это значит?
OpenAI строит новый дата-центр под *чудовищную* нагрузку:
— 4.5 ГВт вычислений (это больше, чем у некоторых стран)
— стоимость — $30 млрд в год 😳
💸 SoftBank? Больше не при делах:
— «SoftBank не участвует в финансировании»
— переговоры по деньгам сорвались ещё в январе
Oracle теперь главный поставщик чипов для OpenAI.
4,5 гигаватта — этого достаточно, чтобы обеспечить электричеством 3,4 миллиона домов.
OpenAI буквально строит инфраструктуру с потреблением энергии на уровне небольшого города — только ради обучения ИИ.
@ai_machinelearning_big_data
#openai #news #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍3🔥3😁1🤯1
🧠 Anthropic выпустила исследование:
Inverse Scaling in Test-Time Compute
📉 Больше размышлений — хуже результат?
Да! Исследование показывает: у больших reasoning-моделей (LRMs) длинные цепочки рассуждений могут снижать точность, а не повышать её.
Во всех задачах (счёт, регрессия, дедукция, AI-риски) проявились 5 типов сбоев:
1️⃣ Claude отвлекается и уходит от сути
2️⃣ OpenAI‑модели переобучаются на формулировки
3️⃣ Ложные корреляции вытесняют знания
4️⃣ Нарушается фокус в логике и выводах
5️⃣ Некоторые модели (👀 включая Claude Sonnet 4) — проявляют поведение самосохранения 🤯
💡 Вывод: "думать дольше" ≠ "думать лучше".
Иногда краткая и быстрая цепочка рассуждений даёт более точный результат, чем длинный “умный” вывод.
Paper: https://arxiv.org/abs/2507.14417
Page: https://safety-research.github.io/inverse-scaling-ttc/
Inverse Scaling in Test-Time Compute
📉 Больше размышлений — хуже результат?
Да! Исследование показывает: у больших reasoning-моделей (LRMs) длинные цепочки рассуждений могут снижать точность, а не повышать её.
Во всех задачах (счёт, регрессия, дедукция, AI-риски) проявились 5 типов сбоев:
1️⃣ Claude отвлекается и уходит от сути
2️⃣ OpenAI‑модели переобучаются на формулировки
3️⃣ Ложные корреляции вытесняют знания
4️⃣ Нарушается фокус в логике и выводах
5️⃣ Некоторые модели (👀 включая Claude Sonnet 4) — проявляют поведение самосохранения 🤯
💡 Вывод: "думать дольше" ≠ "думать лучше".
Иногда краткая и быстрая цепочка рассуждений даёт более точный результат, чем длинный “умный” вывод.
Paper: https://arxiv.org/abs/2507.14417
Page: https://safety-research.github.io/inverse-scaling-ttc/
❤5👍3🔥3
Forwarded from Machinelearning
Hierarchical Reasoning Model, (HRM) - рекуррентная архитектура, которая черпает вдохновение в принципах работы человеческого мозга. В ее основе лежат 2 взаимозависимых рекуррентных модуля:
Эта структура дает модели достигать вычислительной глубины, необходимой для сложных рассуждений, при этом сохраняя стабильность и эффективность во время обучения, чего так не хватает стандартным трансформерам.
Процесс кардинально отличается от того, что происходит в обычных рекуррентных сетях, которые склонны к преждевременной сходимости, когда их скрытое состояние быстро стабилизируется, и дальнейшие вычисления практически прекращаются. В HRM все иначе:
Таким образом, вычислительный путь низкоуровневого модуля перезапускается, направляя его к новой точке локального равновесия. Механизм не дает системе застрять и позволяет ей последовательно выполнять множество различных, но взаимосвязанных этапов решения, выстраивая длинные логические цепочки.
Тестовая модель HRM с 27 млн. параметров, обученная всего на 1000 примерах без какого-либо претрейна или CoT-пар, показала неожиданно высокие результаты .
На задачах, требующих глубокого поиска и перебора вариантов ( Sudoku-Extreme ) и поиск оптимального пути ( Maze 30x30 ), HRM достигла почти идеальной точности, а вот CoT-методы полностью провалились с результатом 0%.
На бенчмарке ARC-AGI-1, HRM показывает точность в 40.3%. Для сравнения, o3-mini-high показала 34.5%, а Claude 3.7 с контекстом 8K - 21.2%.
@ai_machinelearning_big_data
#AI #ML #HRM #SapientInc
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥4❤2🥰1
🧠 PyPOTS — специализированный инструмент для работы с временными рядами, содержащими пропущенные значения. Этот Python-пакет предлагает готовые реализации современных алгоритмов машинного обучения, адаптированных для неполных данных. При этом он фокусируется именно на проблемах частично наблюдаемых временных рядов.
Проект включает модели для импутации, классификации, кластеризации и обнаружения аномалий. Инструмент обладает минимальными требованиями к предварительной обработке данных и встроенную поддержку оптимизации гиперпараметров через Microsoft NNI.
🤖 GitHub
@machinelearning_ru
Проект включает модели для импутации, классификации, кластеризации и обнаружения аномалий. Инструмент обладает минимальными требованиями к предварительной обработке данных и встроенную поддержку оптимизации гиперпараметров через Microsoft NNI.
🤖 GitHub
@machinelearning_ru
❤8👍2🔥1
