Ether0 - специализированная модель с 24 млрд. параметров, разработанная FutureHouse для проектирования соединений и решения сложных задач в химии.
В отличие от традиционных моделей, она не просто пересказывает теорию, а решает практические задачи: считает атомы, проверяет химическую стабильность и генерирует структуры, подходящие для синтеза, используя естественный язык для рассуждений и вывода структур в формате SMILES.
SMILES (Simplified Molecular Input Line Entry System) — это линейная текстовая нотация для описания структуры химических соединений с использованием коротких ASCII-строк. Он позволяет кодировать молекулярные графы, включая информацию о связях, атомах и хиральности, что делает его удобным для обмена данными в химинформатике.
Пайплайн инференса выглядит так: пользователь вводит текстовый запрос (например, «создай ингибитор киназы с 30 атомами»), модель запускает цепочку рассуждений. Они работают параллельно, предлагая варианты, а потом выбирается лучший результат. Это позволяет комбинировать экспертизу: одна часть системы фокусируется на структуре кольца, другая — на функциональных группах, третья — на токсичности.
Основой ether0 стала Mistral-Small-24B-Instruct-2501, которую адаптировали в несколько итераций.
Сначала исходная модель Mistral прошла стадию SFT на примерах цепочек рассуждений, сгенерированных другими моделями.
Затем ее усилили обучением на группах связанных задач предсказания растворимости и синтеза. После этого, знания объединили в общий пул через дистилляцию, а затем улучшили его с помощью общего RL.
В завершении - GRPO, который сравнивает несколько вариантов ответов на один вопрос, выбирая наиболее точные. Финальный штрих - алайнмент. Модель обучили избегать генерации опасных соединений через дополнительные данные и RL.
В тестах ether0 сравнивали с общими LLM (Claude, o1), специализированными химическими моделями (ChemDFM, TxGemma) и традиционными подходами (Molecular Transformer).
На тестовых задачах с множественным выбором (MCQ), она показала 50,1% точности в режиме zero-shot, что близко к результату o1-2024-12-17 (52,2%).
В задачах проектирования молекул (предсказание реакций) ether0 достигла 70% точности после 46 000 примеров, а MT, обученный на полном наборе данных USPTO (480 000 реакций), показал лишь 64,1%.
ether0 превзошла людей-экспертов и специализированные модели в OA, а тесты на безопасность показали, что модель отказывается от 80% опасных запросов, не теряя точности .
@ai_machinelearning_big_data
#AI #ML #LLM #Ether0 #Chemistry #FutureHouse
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤49👍35🔥17🌚5😢1
📈 Количество пользователей растет у всех , но ChatGPT — вне конкуренции
Но ChatGPT растет быстрее всех.
Почти все крупные сайты растут, но ChatGPT показывает непрерывный и аномальный взлёт. В мае 2025 года его посещаемость выросла на +6,82% по сравнению с апрелем.
И это говорит о двух вещах:
1️⃣ ИИ стал по-настоящему массовым
Все меньше людей , которые не использует ИИ — в работе, учёбе или просто в быту. Это уже не будущее — это часть повседневности.
2️⃣ OpenAI наращивает отрыв
Именно поэтому GPT‑5 — будет не просто новой моделью, это стратегическая ставка на доминирование на ИИ рынке.
У модели есть шанс пробить магическую планку в 1 миллиард пользователей и окончательно закрепить лидерство OpenAI.
@ai_machinelearning_big_data
#chatgpt #openai #news #ml #ai
Но ChatGPT растет быстрее всех.
Почти все крупные сайты растут, но ChatGPT показывает непрерывный и аномальный взлёт. В мае 2025 года его посещаемость выросла на +6,82% по сравнению с апрелем.
И это говорит о двух вещах:
1️⃣ ИИ стал по-настоящему массовым
Все меньше людей , которые не использует ИИ — в работе, учёбе или просто в быту. Это уже не будущее — это часть повседневности.
2️⃣ OpenAI наращивает отрыв
Именно поэтому GPT‑5 — будет не просто новой моделью, это стратегическая ставка на доминирование на ИИ рынке.
У модели есть шанс пробить магическую планку в 1 миллиард пользователей и окончательно закрепить лидерство OpenAI.
@ai_machinelearning_big_data
#chatgpt #openai #news #ml #ai
❤65👍36🤣12🤷8🔥5🤔5
MTS Web Services (MWS) провела масштабное мероприятие True Tech Day — свыше 800 000 участников онлайн и 5 000 офлайн. Ключевой фокус — искусственный интеллект и ML.
Формат: 4 трека, 50+ спикеров, интерактив с флагманскими продуктами MWS.
Технологии: генеративный ИИ, цифровые двойники, робототехника, AutoML, системная инженерия будущего.
На главной сцене:
Треки конференции:
True Tech Day 2025 стал не просто конференцией, а местом встречи ИТ-сообщества, где ИИ не только обсуждали — с ним взаимодействовали на практике.
@ai_machinelearning_big_data
#AI #ML #TrueTech #MWS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍46❤14🤣7🥱3🤬2🥰1
Epoch AI провели исследование, чтобы копнуть способность o3-mini в математическом ризонинге глубже, чем это происходит в популярных тестах и бенчмарках.
Они дали 14 математикам разобрать, как именно o3-mini-high решает сложные задачи из FrontierMath. Цель - понять ее сильные и слабые стороны в реальном математическом мышлении, а не просто фиксировать правильные ответы.
Так как внутренняя структура самой модели OpenAI не раскрывает, авторы сосредоточились на анализе ее рассуждений.
По 29-и "траекториям рассуждений" стало видно: модель не просто перебирает формулы, она действует как "индуктивный решатель на ощущениях" (по выражению одного математика).
Модель проявляет любопытство: пробует разные подходы, ставит "бюджетные эксперименты", чтобы прощупать задачу. Иногда даже пишет код для расчетов, избегая излишней абстракции.
Но стиль ее рассуждений часто неформальный, "черновой". Рассуждения излагаются приблизительно, без строгой формулировки, с пропусками сложных моментов – совсем не как это принято в математической среде.
Почему так? Возможно, строгие доказательства просто реже встречались в ее обучающих данных.
Главные проблемы модели – это обратная сторона ее же достоинств. Да, она эрудирована как никто (знает кучу теорем из разных областей – в 66% случаев она адресно применяла нужные знания, даже если подход был замаскирован).
Но ей не хватает строгости и глубины. Она часто "читерит": делает верную догадку интуитивно и тут же применяет ее для решения, даже не пытаясь ее подтвердить доказательствами.
Порой ей не хватает буквально одного шага до верного ответа. Но главное – математики критикуют ее за слабую креативность. Как заметил один эксперт, модель похожа на аспиранта, который может блеснуть начитанностью, назвать кучу теорем и авторов, но не способен глубоко переосмыслить материал или придумать что-то новое.
Набор идей модели ограничен, и если они не срабатывают – прогресса нет. Плюс ко всему, в 75% рассуждений нашли галлюцинации: модель путает термины, формулы, и зачастую выдумывает несуществующие URL для поиска недостающей информации.
Модель, по заверением OpenAI, обучали на огромном массиве данных математической литературы. Это объясняет ее феноменальную эрудицию. Но смогут ли такие модели, как o3-mini-high, преодолеть свои слабости в будущем?
Или же системы, обученные на синтетических данных (AlphaProof), пойдут другим путем, предлагая в инфернесе рассуждения, мало похожие на человеческое математическое мышление?
А пока что вывод: o3-mini-high – это мощный, но своеобразный инструмент. Знаток с интуицией, но без дисциплины профессора.
@ai_machinelearning_big_data
#AI #ML #EpochAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍73❤37👌13🥰7👨💻4
Media is too big
VIEW IN TELEGRAM
Новая функция позволяет автоматизировать повторяющиеся задачи и получать персонализированные уведомления. Пользователи могут задавать команды, например, ежедневно присылать сводку календаря или идеи для блога, а также создавать разовые напоминания.
«Запланированные действия» активируется через настройки приложения. Система работает просто: достаточно описать задачу и указать время выполнения. Доступ к инструменту открыт для подписчиков Google AI Pro/Ultra и корпоративных пользователей Google Workspace (образовательные и бизнес-планы).
blog.google
Все началось из за волны возмущения платных подписчиков поводу того, что в Gemini app платный Pro-тариф ($19.99) оказался строже, чем бесплатный AI Studio.
Google отреагировал увеличением лимитов для Gemini app, но параллельно объявил, что AI Studio полностью перейдет на авторизацию по API-ключам. Это напугало разработчиков, многие используют AI Studio в своих проектах. Они опасаются, что теперь придется платить за сервис.
Руководитель направления, Логан Килпатрик, успокоил сообщество: "Бесплатный уровень AI Studio никуда не денется в ближайшее время". Поменяется система учета. Пока большинство укладывалось в свободные квоты, но теперь, при их превышении, точно потребуется свой ключ и, возможно, оплата. Для тех, кому критичны большие квоты Gemini app, теперь нужен уже AI Ultra за $250/мес. Будущее бесплатного доступа в AI Studio прорабатывается, компания обещает минимизировать неудобства.
9to5google.com
Microsoft выпустила обновление для Photos на Windows 11 с новыми фичами. Relight: позволяет управлять тремя источниками света, менять их цвет и фокус, есть готовые пресеты. Пока это работает только на Snapdragon-устройствах Copilot+, но вскоре поддержка дойдет до AMD и Intel.
Поиск по текстовому запросу: вводите «закат на пляже» или «семейный пикник», и приложение найдет подходящие фото без лишних кликов.
Коммерческие пользователи с Entra ID получили доступ к Restyle Image и Image Creator, ранее доступным только через личные аккаунты Microsoft. Обновление доступно в версии 2025.11060.5006.0 и выше.
blogs.windows.com
Foundation Models — фреймворк для создания интеллектуальных приложений с поддержкой офлайн-работы и приватностью данных. С ним можно добавлять ИИ-функции в приложения всего за три строки кода на Swift.
Xcode 26 получил интеграцию с ChatGPT и другими LLM, позволяя писать код, тесты и документацию через API-ключи или локальные модели на Mac с чипами Apple. Удобство повысилось за счет голосового управления, обновлённой навигации и локализации.
Swift 6.2 улучшил производительность и взаимодействие с C++ и JavaScript, а также получил поддержку WebAssembly. Контейнеризация для Mac теперь работает с Linux-образами благодаря изолированному опенсорсному фреймворку.
apple.com
Всего месяц просуществовал экспериментальный блог "Claude Explains", где Claude писал технические статьи. Инициатива, по задумке, должна была объединить обучающий контент с маркетинговыми целями, при участии редакторов и экспертов, дорабатывавших черновики Claude.
Блог освещал темы от анализа данных до оптимизации кода. Однако уже через месяц пилот остановили, хотя планы были грандиозные. Пользователи соцсетей критиковали неясность: часть постов выглядела как автоматизированный маркетинг, а отсутствие меток об ИИ-генерации вызывало недоверие.
Согласно сервису Backlink Checker, за месяц существования блога, на его статьи сослались 24 сайта. Вероятно, Anthropic решили дистанцироваться из-за рисков, связанных с ошибками ИИ. Сейчас с адреса блога установлено перенаправление на главную страницу Anthropic.
techcrunch.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤43👍35🔥6🥰3
Tokasaurus — это движок инференса для языковых моделей в режиме высоконагруженных задач. Он максимизирует пропускную способность при работе с LLM, предлагает поддержку API OpenAI, эффективно управляет памятью и оптимизирует вычисления в сценариях, где важно одновременно обрабатывать множество запросов без задержек.
Архитектура Tokasaurus разделена на 3 компонента: веб-сервер, менеджер и модельные воркеры.
Проект учитывает растущую потребность в масштабировании и предлагает 3 типа параллелизма: дата-параллелизм (
dp_size
), пайплайн (pp_size
) и тензорный (tp_size
) с поддержкой AsyncTP.Async Tensor Parallelism в PyTorch — это техника ускорения распределенных вычислений для LLM, где операции связи (all-gather/reduce-scatter) разбиваются на асинхронные части и перекрываются с матричными умножениями (matmul) с помощью чередующихся CUDA-потоков: пока один поток вычисляет фрагмент matmul, другой параллельно передаtт данные для следующего фрагмента через P2P-копирование (NVLink + copy engines), минимизируя простои GPU.
При использовании нескольких GPU, например,
dp_size=2
и pp_size=4
, система задействует 8 GPU, создавая 2 дублирующиеся группы по 4 GPU каждая. При этом параметры управления памятью (kv_cache_size_num_tokens
, max_seqs_per_forward
) применяются к каждой дата-параллельной группе отдельно. Это позволяет тонко управлять ресурсами, исходя из контекста конкретных нагрузок.Tokasaurus поддерживает модели семейств Llama3 и Qwen2, использует технологию Hydragen для ускорения внимания над общими префиксами последовательностей.
⚠️ Проект пока молодой, поэтому некоторые функции могут быть нестабильными. Разработчики активно работают над улучшениями.
@ai_machinelearning_big_data
#AI #ML #LLM # #Tokasaurus #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51❤22🔥12🥰6😨1
Вот как изменилась доля трафика на рынке ИИ за последние полгода:
🗓️ 6 месяцев назад:
🥇 ChatGPT: 87,5%
🥈 Google: 5,4%
🥉 Perplexity: 2,0%
⚡ Claude: 1,6%
🗓️ 3 месяца назад:
🥇 ChatGPT: 77,6% (−9,9%)
🥈 DeepSeek: 8,1% (новый игрок!)
🥉 Google: 4,9%
🤖 Grok: 2,7% (входит в игру от X)
🚀 Perplexity: 2,0%
🗓️ 1 месяц назад:
🥇 ChatGPT: 80,2% (+2,6%)
🥈 Google: 6,1% (+1,2%)
🥉DeepSeek: 5,9% (−2,2%)
🤖 Grok: 2,4%
🚀 Perplexity: 1,6%
⚡ Claude: 1,2%
🗓️ Сейчас:
🥇 ChatGPT: 78,9% (−1,3%)
🥈 Google: 8,0% (+1,9% 📈)
🥉 DeepSeek: 5,3% (−0,6%)
🤖 Grok: 2,1% (−0,3%)
🚀Perplexity: 1,7% (+0,1%)
⚡ Claude: 1,4% (+0,2%)
Главные выводы:
- ChatGPT по-прежнему лидирует, но понемногу теряет долю рынка (−8,6% за полгода).
- Google стабильно растёт (+2,6% с прошлого года).
- DeepSeek мощно стартовал, но в последнее время сдал позиции.
- Grok и Perplexity держатся, а Claude показывает небольшой рост.
@ai_machinelearning_big_data
#GenAI #ТрендыРынка
🗓️ 6 месяцев назад:
🥇 ChatGPT: 87,5%
🥈 Google: 5,4%
🥉 Perplexity: 2,0%
⚡ Claude: 1,6%
🗓️ 3 месяца назад:
🥇 ChatGPT: 77,6% (−9,9%)
🥈 DeepSeek: 8,1% (новый игрок!)
🥉 Google: 4,9%
🤖 Grok: 2,7% (входит в игру от X)
🚀 Perplexity: 2,0%
🗓️ 1 месяц назад:
🥇 ChatGPT: 80,2% (+2,6%)
🥈 Google: 6,1% (+1,2%)
🥉DeepSeek: 5,9% (−2,2%)
🤖 Grok: 2,4%
🚀 Perplexity: 1,6%
⚡ Claude: 1,2%
🗓️ Сейчас:
🥇 ChatGPT: 78,9% (−1,3%)
🥈 Google: 8,0% (+1,9% 📈)
🥉 DeepSeek: 5,3% (−0,6%)
🤖 Grok: 2,1% (−0,3%)
🚀Perplexity: 1,7% (+0,1%)
⚡ Claude: 1,4% (+0,2%)
Главные выводы:
- ChatGPT по-прежнему лидирует, но понемногу теряет долю рынка (−8,6% за полгода).
- Google стабильно растёт (+2,6% с прошлого года).
- DeepSeek мощно стартовал, но в последнее время сдал позиции.
- Grok и Perplexity держатся, а Claude показывает небольшой рост.
@ai_machinelearning_big_data
#GenAI #ТрендыРынка
👍66❤35🔥15🥰3🌭1
Magistral — первая модель рассуждений от Mistral AI. Она сочетает глубокую логическую обработку с возможностью отслеживать каждый шаг её «мышления».
Модель получила поддержку 8 языков, включая русский и выпущена в 2 вариантах:
Внутри Magistral работает в режиме рассуждений, разбивая задачи на цепочки логических шагов, а Flash Answers ускоряет вывод в 10 раз по сравнению с конкурентами. Для интеграции в рабочие процессы модель умеет взаимодействовать с внешними инструментами (API или базами данных).
В тестах Magistral Medium показал 73,6% точности на задачах AIME2024, демонстрируя силу в физических симуляциях и математических расчетах.
Для разработчиков доступны версии на Hugging Face, AWS и IBM WatsonX, а в будущем — на Azure и Google Cloud. Демо Magistral доступно в интерфейсе Le Chat или по API в La Plateforme.
@ai_machinelearning_big_data
#AI #ML #LLM #Magistral #MistralAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60👍22🔥14💯3🤔1