Forwarded from Machinelearning
Совместное исследование Google Research, Принстонского университета, NYU и Еврейского университета в Иерусалиме нашло параллели в обработке естественного языка человеческим мозгом и большими языковыми моделями.
Используя внутричерепные электроды, ученые зафиксировали нейронную активность во время спонтанных диалогов и сравнили ее с внутренними представлениями модели Whisper, разработанной для преобразования речи в текст. Оказалось, что речевые эмбеддинги Whisper коррелируют с активностью в слуховых зонах мозга, а языковые — с областями, ответственными за семантику.
Эксперименты подтвердили догадки: при восприятии речи сначала активируется верхняя височная извилина (STG), обрабатывающая акустические сигналы, а через несколько сотен миллисекунд включается зона Брока (IFG), связанная с декодированием смысла. При воспроизведении речи последовательность обратная: IFG активируется за 500 мс до артикуляции, затем моторная кора планирует движение, а после произнесения слова STG «проверяет» результат. Эти паттерны совпали с динамикой эмбедингов Whisper, хотя модель не обучалась на нейробиологических данных.
Другое интересное совпадение - мозг и LLM используют предсказание следующего слова как ключевую стратегию. Как показали опыты, слушатель бессознательно предугадывает следующие слова, а ошибка предсказания вызывает «нейронное удивление» — механизм, аналогичный обучению с подкреплением в ML. Но архитектурные механизмы у мозга и LLM разные: трансформеры обрабатывают сотни слов параллельно, тогда как мозг анализирует информацию последовательно.
Несмотря на общую «мягкую иерархию» обработки (например, смешение семантических и акустических признаков в IFG и STG), биологические структуры мозга принципиально отличаются от нейронных сетей.
Исследователи подчеркивают: языковые модели (типа ChatGPT) не понимают, как люди общаются в реальной жизни (например, не чувствуют эмоций или культурных особенностей), и не учатся так, как это делает мозг человека с детства. Однако их эмбединги оказались очень полезными для изучения того, как мозг обрабатывает речь.
Ученые надеются, что эти открытия помогут создать нейросети, которые смогут обучаться как люди — медленно, шаг за шагом. А пока Whisper, неожиданно стал «зеркалом» принципов нашего мышления. Кто знает, может, через пару лет ИИ начнёт шутить с нами за чашкой кофе — как друг или коллега по работе.
@ai_machinelearning_big_data
#AI #ML #Research #NLP
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍3❤2😁1
Лучший способ изучить PyTorch — создать что-нибудь с его помощью на практике.
В этом блоге представлен пошаговый гайд по написанию трансформерам с помощью PyTorch с нуля.
📌 Гайд
📌 Что под капотом у PyTorch
📌Видео объяснения базы по тензорам
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥3👍2
Forwarded from Machinelearning
HuggingFace, воодушевившись победой модели OlympicCoder над Sonnet 3.7 в бенчмарках LiveCodeBench и в заданиях Международной олимпиады по информатике 2024 года, опубликовал набор датасетов для предварительного обучения и тонкой настройки LLM в задачах генерации кода:
@ai_machinelearning_big_data
#AI #ML #LLM #Dataset #HuggingFace
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
RTX 5090, которую мы заслужили 😂
😁6❤3👍3😢1
This media is not supported in your browser
VIEW IN TELEGRAM
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2❤1🥰1
@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1
📊Tokencost — это инструмент, помогающий оценивать стоимость использования языковых моделей, таких как GPT-4, Claude и тп.
Библиотека автоматически учитывает актуальные тарифы провайдеров и точно подсчитывает токены через официальные API.
📝Такой калькулятор особенно полезен при работе с AI-агентами и сложными пайплайнами, где важно контролировать бюджет.
Достаточно передать промпт или историю сообщений в ChatML-формате — Tokencost вернёт расчёт в долларах, учитывая даже служебные токены форматирования.
🔗 GitHub
@bigdatai
Библиотека автоматически учитывает актуальные тарифы провайдеров и точно подсчитывает токены через официальные API.
📝Такой калькулятор особенно полезен при работе с AI-агентами и сложными пайплайнами, где важно контролировать бюджет.
Достаточно передать промпт или историю сообщений в ChatML-формате — Tokencost вернёт расчёт в долларах, учитывая даже служебные токены форматирования.
🔗 GitHub
@bigdatai
👍3❤1🔥1
⚡️ AI-агенты в девелопменте
Делимся интересным кейсом. red_mad_robot рассказывают на Хабре, как внедрили в бизнес-процессы девелопера ГК ФСК смарт-платформу с двумя AI-агентами.
Первый — для клиентов: встроен в чат-бот на сайте и отвечает на вопросы о квартирах. Второй — для сотрудников: ищет данные в корпоративных системах, будь то регламенты или спецификации жилых комплексов. Оба работают на RAG-технологии, которая подтягивает актуальные данные из базы.
В статье интересно описаны технические детали решения, например, проверка точности ответов с помощью RAGAS. Почитать подробнее можно по ссылке.
@bigdatai
Делимся интересным кейсом. red_mad_robot рассказывают на Хабре, как внедрили в бизнес-процессы девелопера ГК ФСК смарт-платформу с двумя AI-агентами.
Первый — для клиентов: встроен в чат-бот на сайте и отвечает на вопросы о квартирах. Второй — для сотрудников: ищет данные в корпоративных системах, будь то регламенты или спецификации жилых комплексов. Оба работают на RAG-технологии, которая подтягивает актуальные данные из базы.
В статье интересно описаны технические детали решения, например, проверка точности ответов с помощью RAGAS. Почитать подробнее можно по ссылке.
@bigdatai
🤔4❤2👍2