🤖 Почему модели лучше отвечают на вопросы по тексту, чем по изображениям — и как это исправить?
Vision-Language модели (VLMs) сильно хуже справляются с вопросами про картинки (*«Сколько книг на изображении?»*), чем с теми же вопросами по тексту (*«Сколько книг в описании?»*). И нашли способ улучшить результат на +4.6%, закрыв треть разрыва между модальностями! Вот что они сделали 👇
🔬 Они разделили вход на три части:
• Данные (изображение или текст),
• Вопрос (*how many…*),
• Ответ (предсказание последнего слова).
🧠 Что нашли:
1️⃣ Мозги у модели разные для текста и картинок — цепочки внимания и нейроны почти не совпадают (всего ~18%). Особенно в частях, где обрабатываются данные и вопрос.
2️⃣ Часть, отвечающая за генерацию ответа, похожа — можно даже подменить её между модальностями, и модель почти не теряет в точности.
3️⃣ Часть, которая "смотрит" на данные — строго модальная. Визуальный поток информации идёт по другому пути, и замена разрушает результат.
4️⃣ Проблема в том, что изображение “становится понятным” слишком поздно. В поздних слоях визуальные данные уже похожи на текстовые — но модель не успевает этим воспользоваться.
💡 Решение: "перемотать" визуальные данные из поздних слоёв обратно в ранние (back-patching) — это помогает модели раньше "понять" картинку.
📈 Результат: +4.6% точности при ответах на вопросы по изображению — и треть разрыва с текстом закрыта!
🧩 Вывод: архитектура не виновата. Просто визуальные данные нужно правильно "подать" — и VLM начинает думать почти как человек.
🔜 Читать статью полностью
@machinelearning_interview
Vision-Language модели (VLMs) сильно хуже справляются с вопросами про картинки (*«Сколько книг на изображении?»*), чем с теми же вопросами по тексту (*«Сколько книг в описании?»*). И нашли способ улучшить результат на +4.6%, закрыв треть разрыва между модальностями! Вот что они сделали 👇
🔬 Они разделили вход на три части:
• Данные (изображение или текст),
• Вопрос (*how many…*),
• Ответ (предсказание последнего слова).
🧠 Что нашли:
1️⃣ Мозги у модели разные для текста и картинок — цепочки внимания и нейроны почти не совпадают (всего ~18%). Особенно в частях, где обрабатываются данные и вопрос.
2️⃣ Часть, отвечающая за генерацию ответа, похожа — можно даже подменить её между модальностями, и модель почти не теряет в точности.
3️⃣ Часть, которая "смотрит" на данные — строго модальная. Визуальный поток информации идёт по другому пути, и замена разрушает результат.
4️⃣ Проблема в том, что изображение “становится понятным” слишком поздно. В поздних слоях визуальные данные уже похожи на текстовые — но модель не успевает этим воспользоваться.
💡 Решение: "перемотать" визуальные данные из поздних слоёв обратно в ранние (back-patching) — это помогает модели раньше "понять" картинку.
📈 Результат: +4.6% точности при ответах на вопросы по изображению — и треть разрыва с текстом закрыта!
🧩 Вывод: архитектура не виновата. Просто визуальные данные нужно правильно "подать" — и VLM начинает думать почти как человек.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14🔥7👍5
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
По аналогии с автосалонами, робототехнический 4S будет предлагать полный цикл: продажи (Sales), сервис (Service), запчасти (Spare parts) и консультации/анализ (Surveys). Планируется зона с демонстрацией роботов в реалистичных сценариях – можно будет всё пощупать руками и увидеть их возможности в деле. Плюс создадут быструю сеть поставки комплектующих по стране и соберут профильную команду для сборки, ремонта и обслуживания машин.
Первыми партнерами станут несколько лидеров сферы: UBTECH и Galaxea. Откроется центр в августе на базе промпарка в районе Ичжуан на юге столицы.
english.news.cn
The Browser Company открыл доступ к бета-версии браузера Dia (по инвайтам). Dia позиционируется как решение, где ИИ глубоко интегрирован в самую суть взаимодействия, он встроен прямо в рабочий процесс пользователя, избавляя от необходимости постоянно ходить на сайты ChatGPT или Claude.
Dia построен на Chromium, так что интерфейс многим знаком. Главная фича — умная адресная строка: она работает и как поиск, и как чат-бот с ИИ. Помощник умеет искать в сети, суммировать загруженные файлы, автоматически переключаться между режимами. Можно даже спросить его о содержимом всех открытых вкладок или попросить составить черновик на их основе.
Настройки производятся через диалог с ботом: можно задать тон, стиль письма, параметры для кода. Опция History (по желанию) позволяет браузеру использовать недельную историю просмотров как контекст для ответов. А функция Skills помогает создавать мини-скрипты — ярлыки для сложных настроек или действий.
techcrunch.com
Mistral AI анонсировала Mistral Compute - инфраструктурную платформу для разработки и запуска ИИ. Это полноценный приватный стек: от GPU и систем оркестрации до API и сервисов. На выбор любой формат, от bare-metal до полностью управляемой PaaS.
Mistral Compute нацелен дать государствам, компаниям и научным центрам, ищущих альтернативу решениям из США или Китая, возможность самим строить ИИ-среду под свои нужды и полностью ею владеть.
Платформа использует новейшие архитектуры NVIDIA, с доступом к десяткам тысяч GPU. Она создана командой с огромным опытом в HPC и обучении топовых ИИ-моделей. Ключевые акценты: устойчивость и суверенитет данных, инфраструктура соответствует строгим европейским нормам и работает на декарбонизированной энергии.
mistral.ai
Seedance 1.0 - новая генеративная модель для создания видео, которая, по утверждениям ByteDance, превосходит конкурентов в точности выполнения запросов, качестве движений и резкости изображения. В тестах на Artificial Analysis она лидирует в задачах text-to-video и image-to-video, обходя Google Veo 3, Kuaishou Kling 2.0 и OpenAI Sora. Модель справляется с длинными сценами, сохраняя стабильность персонажей и переходов между ракурсами, но пока не поддерживает добавление звука.
Seedance 1.0 генерирует 5-секундный Full HD-ролик за 41 секунду — это быстрее аналогов, хотя новый Google Veo 3 Fast может нивелировать это преимущество. Инструмент планируют внедрить в платформы Doubao и Jimeng. Целевая аудитория — от профессиональных видеомейкеров до обычных пользователей.
seed.bytedance.com
Midjourney объявила о начале открытого тестирования модели генерации видео по текстовым запросам. Задача тестирования собрать обратную связь для улучшения алгоритма.
Создатели пригласили сообщество принять участие в онлайн-рейтинге сгенерированных роликов, присоединиться можно по ссылке. Пока некоторые образцы выглядят достойно и сохраняют фирменный стиль Midjourney, но в целом результаты пока нестабильны.
Компания подчеркивает: это не финальная версия модели, а лишь первый шаг. Дополнительные сессии тестирования уже запланированы, но дату релиза и цену пока не раскрывают.
midjourney.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥4❤3
🔥 Успех в IT = скорость + знания + окружение
Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: www.tgoop.com/ai_machinelearning_big_data
Python: www.tgoop.com/pythonl
Linux: www.tgoop.com/linuxacademiya
Собеседования DS: www.tgoop.com/machinelearning_interview
C++ www.tgoop.com/cpluspluc
Docker: www.tgoop.com/DevopsDocker
Хакинг: www.tgoop.com/linuxkalii
Devops: www.tgoop.com/DevOPSitsec
Data Science: www.tgoop.com/data_analysis_ml
Javascript: www.tgoop.com/javascriptv
C#: www.tgoop.com/csharp_ci
Java: www.tgoop.com/java_library
Базы данных: www.tgoop.com/sqlhub
Python собеседования: www.tgoop.com/python_job_interview
Мобильная разработка: www.tgoop.com/mobdevelop
Golang: www.tgoop.com/Golang_google
React: www.tgoop.com/react_tg
Rust: www.tgoop.com/rust_code
ИИ: www.tgoop.com/vistehno
PHP: www.tgoop.com/phpshka
Android: www.tgoop.com/android_its
Frontend: www.tgoop.com/front
Big Data: www.tgoop.com/bigdatai
МАТЕМАТИКА: www.tgoop.com/data_math
Kubernets: www.tgoop.com/kubernetc
Разработка игр: https://www.tgoop.com/gamedev
Haskell: www.tgoop.com/haskell_tg
Физика: www.tgoop.com/fizmat
💼 Папка с вакансиями: www.tgoop.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tgoop.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tgoop.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tgoop.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tgoop.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.tgoop.com/memes_prog
🇬🇧Английский: www.tgoop.com/english_forprogrammers
🧠ИИ: www.tgoop.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tgoop.com/addlist/BkskQciUW_FhNjEy
Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
Здесь ты найдёшь всё это — коротко, по делу и без воды.
Пока другие ищут, где “подглядеть решение”, ты уже используешь самые свежие инструменты!
AI: www.tgoop.com/ai_machinelearning_big_data
Python: www.tgoop.com/pythonl
Linux: www.tgoop.com/linuxacademiya
Собеседования DS: www.tgoop.com/machinelearning_interview
C++ www.tgoop.com/cpluspluc
Docker: www.tgoop.com/DevopsDocker
Хакинг: www.tgoop.com/linuxkalii
Devops: www.tgoop.com/DevOPSitsec
Data Science: www.tgoop.com/data_analysis_ml
Javascript: www.tgoop.com/javascriptv
C#: www.tgoop.com/csharp_ci
Java: www.tgoop.com/java_library
Базы данных: www.tgoop.com/sqlhub
Python собеседования: www.tgoop.com/python_job_interview
Мобильная разработка: www.tgoop.com/mobdevelop
Golang: www.tgoop.com/Golang_google
React: www.tgoop.com/react_tg
Rust: www.tgoop.com/rust_code
ИИ: www.tgoop.com/vistehno
PHP: www.tgoop.com/phpshka
Android: www.tgoop.com/android_its
Frontend: www.tgoop.com/front
Big Data: www.tgoop.com/bigdatai
МАТЕМАТИКА: www.tgoop.com/data_math
Kubernets: www.tgoop.com/kubernetc
Разработка игр: https://www.tgoop.com/gamedev
Haskell: www.tgoop.com/haskell_tg
Физика: www.tgoop.com/fizmat
💼 Папка с вакансиями: www.tgoop.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tgoop.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tgoop.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tgoop.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tgoop.com/addlist/mzMMG3RPZhY2M2Iy
😆ИТ-Мемы: www.tgoop.com/memes_prog
🇬🇧Английский: www.tgoop.com/english_forprogrammers
🧠ИИ: www.tgoop.com/vistehno
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tgoop.com/addlist/BkskQciUW_FhNjEy
Подпишись, если хочешь быть в числе тех, кого зовут в топовые проекты!
👍4🤣3🔥2🥰1
🧠 Anthropic представила мультиагентную систему для Claude
В новой функции Research агент‑координатор (LeadResearcher) создаёт субагентов, которые параллельно ищут, анализируют и структурируют информацию. Это мощный шаг к превращению LLM в полноценный исследовательский инструмент.
📌 Почему это важно:
• Субагенты работают независимо и параллельно
• Каждый из них имеет свой контекст и специализацию
• Главный агент объединяет результаты и выдаёт финальный отчёт
• CitationAgent добавляет корректные ссылки
📊 Результат:
Внутренние тесты показали: Claude с мультиагентной системой превзошёл одиночную модель на +90 % при анализе компаний S&P 500.
💡 Модель теперь не просто отвечает — она планирует, координирует и исследует.
⚠️ Минусы:
• в 4× больше токенов
• в 15× дороже
• не годится для задач с общей памятью (например, программирование)
🔍 Но если нужно глубокое исследование — Claude Research действительно экономит часы и дни человеческой работы.
📌 Читать
В новой функции Research агент‑координатор (LeadResearcher) создаёт субагентов, которые параллельно ищут, анализируют и структурируют информацию. Это мощный шаг к превращению LLM в полноценный исследовательский инструмент.
📌 Почему это важно:
• Субагенты работают независимо и параллельно
• Каждый из них имеет свой контекст и специализацию
• Главный агент объединяет результаты и выдаёт финальный отчёт
• CitationAgent добавляет корректные ссылки
📊 Результат:
Внутренние тесты показали: Claude с мультиагентной системой превзошёл одиночную модель на +90 % при анализе компаний S&P 500.
💡 Модель теперь не просто отвечает — она планирует, координирует и исследует.
⚠️ Минусы:
• в 4× больше токенов
• в 15× дороже
• не годится для задач с общей памятью (например, программирование)
🔍 Но если нужно глубокое исследование — Claude Research действительно экономит часы и дни человеческой работы.
📌 Читать
❤8👍4🔥2
Forwarded from Machinelearning
SEAL - это методика от MiT, позволяющая LLM самостоятельно генерировать обучающие данные и настраивать параметры обучения, чтобы адаптироваться к новым задачам. Вместо традиционного файнтюна на внешних данных модель учится рефлексировать: анализировать контекст, создавать из него синтетические данные и применять их для корректировки собственных весов через механизм усиленного обучения.
SEAL, по сути, это два разделенных цикла:
Этот процесс повторяется, постепенно формируя у модели навык преобразования исходных данных в полезные обучающие сигналы.
SEAL протестили на 2 задачах: интеграции новых знаний и few-shot обучении. В первом случае модель генерирует логические следствия из текста, дообучается на них и улучшает точность ответов на вопросы без доступа к исходному тексту.
Во втором случае SEAL выбирает оптимальные аугментации данных и гиперпараметры для обучения на примерах задач ARC-AGI.
В обоих сценариях SEAL превзошел подходы с фиксированными шаблонами (ICL, TTT+Self Edit без RL и) и даже синтетическими данными от GPT-4.1.
Метод скорее академический и по большей части экспериментальный, у него есть ограничения:
@ai_machinelearning_big_data
#AI #ML #LLM #SEAL #RL #MiT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍3🔥3😁1
🚀 Вышли модели Qwen3 в формате MLX!
Теперь можно запускать Qwen3 локально — быстро, эффективно и с разной точностью:
- 4-bit
- 6-bit
- 8-bit
- BF16
🔧 Модели специально оптимизированы под MLX framework — минимальный объём, максимальная производительность, полная совместимость с Apple Silicon.
🧪 Идеально подходит для локального inference и интеграции в MLX‑проекты.
📦 Попробовать:
• Hugging Face: huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
• ModelScope: modelscope.cn/collections/Qwen3-9743180bdc6b48
@machinelearning_interview
#Qwen3 #MLX #LLM #AppleSilicon #AI
Теперь можно запускать Qwen3 локально — быстро, эффективно и с разной точностью:
- 4-bit
- 6-bit
- 8-bit
- BF16
🔧 Модели специально оптимизированы под MLX framework — минимальный объём, максимальная производительность, полная совместимость с Apple Silicon.
🧪 Идеально подходит для локального inference и интеграции в MLX‑проекты.
📦 Попробовать:
• Hugging Face: huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
• ModelScope: modelscope.cn/collections/Qwen3-9743180bdc6b48
@machinelearning_interview
#Qwen3 #MLX #LLM #AppleSilicon #AI
❤10👍5🔥4
🧠 Модели обучают сами себя: Anthropic представила метод ICM
Исследователи из Anthropic разработали новый подход — Internal Coherence Maximization (ICM), позволяющий языковым моделям тонко настраивать себя без участия человека.
🔍 Как работает:
Модель оценивает последовательность своих ответов, находит противоречия и улучшает собственные ответы путём самокоррекции.
Это позволяет добиться более логичных и целостных рассуждений — без аннотаций и ручной разметки.
📊 Результаты:
• На бенчмарках *TruthfulQA* и *GSM8K* ICM показывает не хуже, а иногда даже лучше, чем классическое супервизированное дообучение
• В субъективных оценках "полезности" — модели с ICM воспринимаются убедительнее
• ICM также может генерировать мощные reward-модели для RLHF
⚠️ Ограничения:
• Сложности с новыми концепциями
• Неустойчивость на очень длинных текстах
📌 Вывод:
ICM — это шаг к более автономному и последовательному ИИ, который учится рассуждать, проверять и улучшать себя сам. Без учителя.
📌 Подробнее
Исследователи из Anthropic разработали новый подход — Internal Coherence Maximization (ICM), позволяющий языковым моделям тонко настраивать себя без участия человека.
🔍 Как работает:
Модель оценивает последовательность своих ответов, находит противоречия и улучшает собственные ответы путём самокоррекции.
Это позволяет добиться более логичных и целостных рассуждений — без аннотаций и ручной разметки.
📊 Результаты:
• На бенчмарках *TruthfulQA* и *GSM8K* ICM показывает не хуже, а иногда даже лучше, чем классическое супервизированное дообучение
• В субъективных оценках "полезности" — модели с ICM воспринимаются убедительнее
• ICM также может генерировать мощные reward-модели для RLHF
⚠️ Ограничения:
• Сложности с новыми концепциями
• Неустойчивость на очень длинных текстах
📌 Вывод:
ICM — это шаг к более автономному и последовательному ИИ, который учится рассуждать, проверять и улучшать себя сам. Без учителя.
📌 Подробнее
❤13👍5🥰3👏1
Forwarded from Machinelearning
MiniMax-M1 — первая в мире open-weight гибридная reasoning‑LLM c 1M контекстом (8× DeepSeek R1) и гибридной архитектурой MoE + lightning attention.
• 456 млрд параметров (45,9 млрд активируются на токен), сверхэффективная генерация — 25% FLOPs DeepSeek R1 на 100K токенов
• Обучение через RL с новым алгоритмом CISPO, решающим реальные задачи от математики до кодинга
• На обучение было потрачено $534K, две версии — 40K/80K “thinking budget”
• Обходит DeepSeek R1 и Qwen3-235B на бенчмарках по математике и кодингу,
• Топ результат на задачах для software engineering и reasoning
Бенчмарки:
AIME 2024: 86.0 (M1-80K) vs 85.7 (Qwen3) vs 79.8 (DeepSeek R1)
SWE-bench Verified: 56.0 vs 34.4 (Qwen3)
OpenAI-MRCR (128k): 73.4 vs 27.7 (Qwen3)
TAU-bench (airline): 62.0 vs 34.7 (Qwen3)
LongBench-v2: 61.5 vs 50.1 (Qwen3)
▪Hugging Face: https://huggingface.co/collections/MiniMaxAI/minimax-m1-68502ad9634ec0eeac8cf094
▪GitHub: https://github.com/MiniMax-AI/MiniMax-M1
▪Tech Report: https://github.com/MiniMax-AI/MiniMax-M1/blob/main/MiniMax_M1_tech_report.pdf
@ai_machinelearning_big_data
#llm #reasoningmodels #minimaxm1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥4👍2
🚀 Moonshot AI выпускает Kimi Dev 72B — новую открытую модель для кодинга и софт-инжиниринга!
▪️ Результат 60.4% на SWE Bench Verified — новый рекорд среди open-source моделей
▪️ Обходит GPT-4.1 и уступает только Gemini 2.5 Pro
▪️ Уже доступна на Hugging Face и GitHub
Kimi Dev 72B — свежий прорыв для разработчиков, ищущих мощную и открытую LLM для Кодина!
- GitHub: https://github.com/MoonshotAI/Kimi-Dev
- HuggingFace: https://huggingface.co/moonshotai/Kimi-Dev-72B
▪️ Результат 60.4% на SWE Bench Verified — новый рекорд среди open-source моделей
▪️ Обходит GPT-4.1 и уступает только Gemini 2.5 Pro
▪️ Уже доступна на Hugging Face и GitHub
Kimi Dev 72B — свежий прорыв для разработчиков, ищущих мощную и открытую LLM для Кодина!
- GitHub: https://github.com/MoonshotAI/Kimi-Dev
- HuggingFace: https://huggingface.co/moonshotai/Kimi-Dev-72B
❤13🔥5👍3
🌀 Align Your Flow — новый прорыв в генерации изображений
Исследователи Nvidia предложили метод, который объединяет преимущества diffusion‑, flow‑ и consistency‑моделей, но без их главного минуса — большого числа шагов генерации.
📌 В чём проблема:
• Diffusion и flow‑модели выдают отличные результаты, но требуют десятки/сотни шагов
• Consistency-модели ускоряют генерацию (1–2 шага), но резко теряют в качестве при увеличении шагов
🔬 Решение: Flow Maps
• Обобщают подходы diffusion и consistency
• Связывают любые уровни шума за один шаг
• Работают эффективно при любом числе шагов
🧪 Что нового в работе:
• Два непрерывных loss-функционала для обучения flow map
• Поддержка автонавигации: слабая модель помогает сильной при дистилляции
• Дополнительный прирост через adversarial finetuning, при этом сохраняется разнообразие семплов
📈 Результаты:
• SOTA на ImageNet (64×64 и 512×512) — даже с компактными нейросетями
• Текст‑к‑картинке (text-to-image) версия превзошла все не-GAN модели в few-step генерации
🧠 Вывод:
Align Your Flow — это следующий шаг после diffusion и consistency. Меньше шагов, меньше вычислений — при том же или лучшем качестве.
📎 Отличный кандидат для продвинутых генераторов и real-time inference.
https://huggingface.co/papers/2506.14603
Исследователи Nvidia предложили метод, который объединяет преимущества diffusion‑, flow‑ и consistency‑моделей, но без их главного минуса — большого числа шагов генерации.
📌 В чём проблема:
• Diffusion и flow‑модели выдают отличные результаты, но требуют десятки/сотни шагов
• Consistency-модели ускоряют генерацию (1–2 шага), но резко теряют в качестве при увеличении шагов
🔬 Решение: Flow Maps
• Обобщают подходы diffusion и consistency
• Связывают любые уровни шума за один шаг
• Работают эффективно при любом числе шагов
🧪 Что нового в работе:
• Два непрерывных loss-функционала для обучения flow map
• Поддержка автонавигации: слабая модель помогает сильной при дистилляции
• Дополнительный прирост через adversarial finetuning, при этом сохраняется разнообразие семплов
📈 Результаты:
• SOTA на ImageNet (64×64 и 512×512) — даже с компактными нейросетями
• Текст‑к‑картинке (text-to-image) версия превзошла все не-GAN модели в few-step генерации
🧠 Вывод:
Align Your Flow — это следующий шаг после diffusion и consistency. Меньше шагов, меньше вычислений — при том же или лучшем качестве.
📎 Отличный кандидат для продвинутых генераторов и real-time inference.
https://huggingface.co/papers/2506.14603
❤8👍5🔥3
Forwarded from Machinelearning
Goodfire AI, вдохновившись примером Anthropic в интерпретации внутренних процессов Claude, воспроизвели методы трассировки цепей межслойных транскодеров (Cross-Layer Transcoders, CLT) на GPT-2 Small, чтобы проверить их способность раскрывать известные механизмы трансформеров.
Выбор на GPT-2 Small пал не случайно, эта модель небольшая и уже была ранее подвергнута ручному реверс-инжинирингу.
Cross-Layer Transcoders выжимают из модели разреженные признаки, которые объясняют работу MLP-слоев. Визуализируют это через графы атрибуции — это карты влияния признака на выход модели.
Натренировали на 100M токенов из FineWeb, получили ~590K признаков. Точность CLT-реплики модели составила 59%, что близко к оригинальным статьям. Тестировали на задаче сравнения чисел («больше, чем»), идеальном полигоне, где уже известны ключевые механизмы.
Задача "Больше, чем" (ориг. "greater-than") взята из статьи Michael Hanna, она заставляет предсказывать большие числа для второго года в диапазоне дат.
Промпт «The war lasted from the year 1711 to 17». CLT построил граф, где признаки с токена «11» (последняя цифра года) активнее всего влияли на предсказание.
Дальше, выделили топ-160 признаков, для каждого построили логит-атрибуции — теплокарты, показывающие, как признак влияет на выходные годы (ZZ) при разных входных (YY).
Похоже, CLT подсветил кучу узкоспециализированных «сравнивателей», а не универсальные нейроны, как в ручных исследованиях.
CLT автоматически находит интерпретируемые признаки, даже такие неочевидные, как абстрактная четность. Но их «разреженный» мир выглядит иначе, чем ручная трассировка цепей: тут больше узких признаков-«спецов» (Feature 461858 для диапазона 10–30) и меньше универсальных механизмов.
Возможно, дело в методе: CLT смотрит изолированные вклады фич, а в полной модели они взаимодействуют.
В общем, эксперименты с CLT показал, что под капотом языковых моделей не только четкие «сравниватели чисел», но и куча скрытых паттернов вроде детекторов контраста или любителей чисел, кратных 5. И да, полуавтономный анализ иногда видит то, что люди упускают.
@ai_machinelearning_big_data
#AI #ML #LLM #Research #CLT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥4🥰1🤔1