Media is too big
VIEW IN TELEGRAM
Новая возможность, интегрированная в интерфейс Gemini, позволяет подписчикам планов Pro и Ultra создавать короткие видеоролики на основе одного статичного изображения. Для этого достаточно загрузить картинку, выбрать опцию «Видео» и текстом описать желаемый сценарий.
Google говорит, что развертывание функции уже началось, однако ее доступность может варьироваться. Проверить наличие обновления можно непосредственно в приложении Gemini или на веб-сайте.
Google Gemini App в сети X
Perplexity открыл доступ к своему ранее анонсированному веб-браузер Comet. Браузер построен на концепции «агентного ИИ», который не просто ищет информацию, а способен думать, действовать и принимать решения от имени пользователя.
Встроенный ассистент может сравнивать товары, суммировать контент и назначать встречи, превращая сложные рабочие процессы в простой диалог. Попробовать Comet могут пока только подписчики премиум-плана Perplexity Max. Более широкий доступ по приглашениям компания обещает открыть в течение лета.
reuters.com
Mistral AI расширила серию Devstral, моделей для автономной разработки ПО. В линейку вошли две версии: открытая Devstral Small 1.1 и проприетарная Devstral Medium.
Devstral Small 1.1 осталась на прежней архитектуре, с размером в 24 млрд. параметров и уже доступна на Hugging Face. Она показывает результат 53.6% в бенчмарке SWE-Bench и позиционируется как лучшая открытая модель для ИИ-агентов, работающих с кодом.
Более мощная Devstral Medium доступна через API. По заявлениям Mistral, она превосходит GPT-4.1 и Gemini 2.5 Pro в том же тесте (61.6%), но при этом обходится значительно дешевле ($0.4/M input и $2/M output.)
mistral.ai
Arm объявила, что ее процессорное расширение Scalable Matrix Extension 2 (SME2) скоро появится в новом поколении мобильных чипов для Android. Эта технология, ранее доступная в основном для серверных систем, предназначена для радикального ускорения матричных вычислений, основы большинства ML-алгоритмов.
Эффект от внедрения SME2 обещает быть заметным. По данным Arm, модель Gemma 3 работает на устройствах с этой технологией в 6 раз быстрее, а на обобщение текста из 800 слов уходит менее секунды.
Появление SME2 может дать Android-флагманам серьезное преимущество, поскольку Apple хоть и использует технологию в чипах M4 для iPad, но еще не внедрила ее в iPhone. Важно, что программная экосистема уже готова: поддержка SME2 реализована в ключевых библиотеках Android и популярных фреймворках.
androidauthority.com
В сентябре в Дубае начнет работу ресторан WOOHOO, концепция, меню и даже рабочие процессы которого были созданы искусственным интеллектом. В основе проекта лежит проприетарная LLM «Chef Aiman», обученная на десятилетиях исследований в области пищевых наук, данных о молекулярном составе продуктов и более чем тысяче мировых рецептов.
Система анализирует ингредиенты на уровне текстур и вкусов, а затем предлагает новые сочетания. Эти идеи дорабатываются командой поваров под руководством известного шефа Рейфа Отмана. В будущем основатели планируют лицензировать «Chef Aiman» другим ресторанам как инструмент для создания уникального гастрономического опыта и повышения устойчивости производства.
alarabiya.net
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍61❤33🔥15🥱6
Приходите на митап High SQL — он пройдёт 15 июля в 19:00 (по мск) офлайн в Санкт-Петербурге и онлайн из любой точки мира. Вот о чём поговорим со спикерами из ЮMoney и приглашённым экспертом Дмитрием Аношиным:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍38🔥15❤12🤣5
Новая библиотека позволяет собирать AI-процессы из компонентов — как LEGO для ИИ-агентов.
- Построение асинхронных, компонуемых пайплайнов
- Поддержка Gemini и Gemini Live API
- Основана на asyncio
- Обрабатывает мультимодальные данные: текст, изображения, аудио
- Внутри готовые агенты: real-time агент, исследователь, live-комментатор
- Разработки ИИ-агентов
- Генеративных моделей, работающих в реальном времени
- Быстрой сборки MVP с мультимодальными возможностями
Установка:
pip install genai-processors
Открытый код, готовые компоненты и интеграция с API.
• Repo: https://github.com/google-gemini/genai-processors
• Blog: https://developers.googleblog.com/en/genai-processors/
@ai_machinelearning_big_data
#DeepMind #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64❤19🔥16👏7
💲 Amazon может вложить ещё миллиарды в Anthropic — сообщает Financial Times
Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.
Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании
💰 Что известно:
— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
— Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API
📊 Контекст:
— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами
Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC
- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки
Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.
🔗 Источник
@ai_machinelearning_big_data
#ml #ai #Claude #finance #anthropic #Amazon
Amazon рассматривает новое многомиллиардное вложение в разработчиков Claude — компанию Anthropic.
Это уже второе крупное вложение: ранее в ноябре 2024 года Amazon вложил $4 млрд, доведя общий объем инвестиций до $8 млрд, что делает его ключевым акционером компании
💰 Что известно:
— Новая инвестиция усилит позиции Amazon как крупнейшего инвестора в Anthropic (опережая Google)
— Anthropic активно использует AWS, включая чипы Trainium2 и дата-центр Project Rainier в Индиане
— Модели Claude уже интегрируются в продукты Amazon: Alexa+, Prime Video, AWS API
📊 Контекст:
— Оценка Anthropic может легко превысить $75 миллиардов.
— Годовая выручка компании превышает $4 млрд
— Amazon конкурирует с Microsoft (OpenAI) и Google за контроль над передовыми ИИ-системами
Еще стало известно, что Amazon запустит маркетплес ДЛЯ ИИ-АГЕНТОВ В ПАРТНЕРСТВЕ С ANTHROPIC
- Модель маркетплейса позволит стартапам брать плату с пользователей за ИИ-агентов
- Стартапы смогут напрямую предлагать ИИ-агентов клиентам AWS
- Маркетплейс поможет AWS и Anthropic расширить охват
А также привлечь разработчиков к использованию Claude API для создания новых агентов → рост выручки
Amazon не просто инвестирует — он строит инфраструктуру под Claude, делая ставку на долгосрочное доминирование в ИИ через облако.
🔗 Источник
@ai_machinelearning_big_data
#ml #ai #Claude #finance #anthropic #Amazon
👍51❤26🔥15🌭4🥰2😁1
Центральный университет разработал программу онлайн-обучения с привилегиями очной формы: студенческий билет со всеми льготами, отсрочка от армии, диплом очной формы и живая проектная работа на очных буткемпах в Москве.
Онлайн-семинары в мини-группах до 12 человек, а каждый семестр — неделя интенсивов в Москве: работа над реальными задачами бизнеса. Проживание во время интенсива для студентов из регионов полностью оплачивается.
Ведущие специалисты отрасли, например, главные тренеры школьной сборной России, которая одержала победу в первой Международной олимпиаде по искусственному интеллекту в Болгарии в 2024 году, они же тренируют сборную в этом году к Международной олимпиаде в Китае: Александр Дьяконов – руководитель направления «Искусственный интеллект» в Центральном университете, Data Scientist №1 в мире по версии Kaggle (2012), лауреат премии «Лучший ИТ-преподаватель России» (2014) и Александр Гущин – индустриальный руководитель направления «Искусственный интеллект» в Центральном университете, Kaggle Grandmaster (№5 в мире в 2017). А также Виктор Кантор – основатель ML Inside, лауреат Forbes «30 до 30», один из лучших экспертов по ML в России.
Программа предоставляет актуальные ML-инструменты глубокую теоретическую базу, карьерную поддержку, главное — проектное портфолио уже в процессе обучения и возможность получить грант, покрывающий 75% от стоимости обучения.
Заявки принимаются до 20 августа, начало обучения с сентября 2025 года
Цель программы — подготовка специалистов, которые уверенно ориентируются как в теории, так и в решении прикладных задач.
@ai_machinelearning_big_data
#news #ML
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🥱51👍25❤21😁14🔥6🫡5🙈2
LMCache - проект, который предлагает решение по сохранению KV-кэша на CPU, диске или даже в специализированной памяти NIXL. По сути, это инструмент, который превращает одноразовые вычисления в многократно используемые блоки, экономя время и ресурсы.
Представьте, что в чат-боте пользователи часто ссылаются на один и тот же системный промпт или историю диалога. Обычно модель заново обрабатывает эти данные, но LMCache просто загружает готовый кэш. Выгрузка KV-кэшей освобождает GPU для новых задач, уменьшая TTFT (время до первого токена) вплоть до 10 раз.
Кэши можно не только выгружать, но и делиться между разными инстансами LLM. Проще говоря, если два пользователя одновременно обращаются к разным копиям модели с одинаковым запросом, система не будет дублировать работу: результаты одного prefill’а станут доступны всем. Это работает даже для неполных префиксов, например, при частичном совпадении входных данных.
Prefill и decode, которые обычно выполняются на одном GPU, теперь могут быть разнесены: первый этап обрабатывается на мощных узлах, а второй на оптимизированных для генерации. Для распределенных систем такая техника повысит пропускную способность.
Тесты разработчиков проекта показывают, что в реальных задачах задержка снижается в 3–10 раз, а GPU-циклы экономятся на повторных вычислениях.
Проект тесно интегрируется с vLLM, в репозитории есть большой набор с примерами, документация и советы по установке и настройке.
⚠️ Калькулятор KV-кеша с выбором модели, ее типа данных и количества токенов, который поможет прикинуть, сколько VRAM можно сэкономить.
@ai_machinelearning_big_data
#AI #ML #LLM #LMCache #KVCache #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤40👍33🔥18🤔6👏2
🩺 Боксер 5 лет жил с щелчком в челюсти.
За долгие годы 17 врачей не смогли ему помочь, рентген ничего не показывал.
Чат-бот выдал диагноз за минуту: смещение сустава и рекомендовал сделать - простое упражнение языком.
Он попробовал — и щелчок исчез.
🔜 Добро пожаловать в эру ИИ-медицины.
Пациенты загружают симптомы или даже МРТ — и получают точные диагнозы с вероятностью до 92%.
LLM доверяют сложнейшие кейсы: спинальные патологии, редкие болезни крови и другие «неуловимые» диагнозы.
📊 Новые метрики подтверждают эффективность ИИ:
— MAI-DxO — MAI-DxO — это система оркестрации медицинского ИИ (AI orchestration system), разработанная для объединения разных моделей и инструментов диагностики в единую "умную" систему, которая диагностирует в 4 раза точнее, чем врачи
— HealthBench -это открытый бечмарк для оценки медицинских навыков и точности диагностики, содержит 5000 реальных медицинских cлучаев в формате чатов между пациентом и моделью.
Что самое интересно:
— Когда ИИ работает один — точность диагнозов 95%
— Когда вмешивается человек — точность диагноза падает до 75%: врачи зачастую занижают тревожность, упускают детали
Иногда именно ИИ замечает то, что упустили 17 специалистов.
📌 Источник
@ai_machinelearning_big_data
#ai #ml #medecine
За долгие годы 17 врачей не смогли ему помочь, рентген ничего не показывал.
Чат-бот выдал диагноз за минуту: смещение сустава и рекомендовал сделать - простое упражнение языком.
Он попробовал — и щелчок исчез.
Пациенты загружают симптомы или даже МРТ — и получают точные диагнозы с вероятностью до 92%.
LLM доверяют сложнейшие кейсы: спинальные патологии, редкие болезни крови и другие «неуловимые» диагнозы.
— MAI-DxO — MAI-DxO — это система оркестрации медицинского ИИ (AI orchestration system), разработанная для объединения разных моделей и инструментов диагностики в единую "умную" систему, которая диагностирует в 4 раза точнее, чем врачи
— HealthBench -это открытый бечмарк для оценки медицинских навыков и точности диагностики, содержит 5000 реальных медицинских cлучаев в формате чатов между пациентом и моделью.
Что самое интересно:
— Когда ИИ работает один — точность диагнозов 95%
— Когда вмешивается человек — точность диагноза падает до 75%: врачи зачастую занижают тревожность, упускают детали
Иногда именно ИИ замечает то, что упустили 17 специалистов.
📌 Источник
@ai_machinelearning_big_data
#ai #ml #medecine
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥98😁47👍36❤26🙉10🤔7🤬4🤗1
Размер — 1 триллион параметров, при этом:
- 65.8% на SWE-bench Verified, против 50.2% у Claude Sonnet 4 и 40.8% у GPT-4.1
- Лучшие результаты среди открытых моделей по кодингу, математике и агентным задачам
- Архитектура MoE на базе DeepSeek V3, 1 трлн параметров, 32B активны.
Также доступна через API:
- $0.15 за миллион входных токенов (при попадании в кэш)
- $0.60 за миллион входных токенов (если кэш не сработал)
- $2.50 за миллион выходных токенов
Почти в 5 раз дешевле, чем Claude 4 Sonnet и Gemini 2.5 Pro!
@ai_machinelearning_big_data
#kimi #china #llm #ml #ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍115❤34🔥23🥰7🤣7👏3🤔1
Media is too big
VIEW IN TELEGRAM
Брюссель выпустил практическое руководство, которое должно помочь компаниям подготовиться к вступлению в силу Закона об ИИ. Документ детализирует требования к моделям общего назначения по трем ключевым направлениям: прозрачность, авторское право и безопасность.
Разработчикам предстоит документировать источники данных для обучения, предоставлять интерфейсы для аудита и внедрять фильтры для защищенного контента. Требования по безопасности включают обязательное проведение red-teaming и оценку рисков.
Нормы станут обязательными со 2 августа 2025 года, и их публикация сигнализирует об отказе регулятора откладывать сроки, несмотря на просьбы бизнеса. Штрафы за несоблюдение могут достигать 35 миллионов евро или 7% от оборота.
digital-strategy.ec.europa.eu
GitHub изменил модели тарификации для Copilot coding agent, делая ее более предсказуемой. Теперь каждая сессия работы с агентом, будь то создание нового pull-request или изменение существующего, будет стоить ровно один «премиум-запрос».
Это изменение устраняет неопределенность в расходах. Независимо от сложности задачи и количества затронутых файлов, стоимость сессии остается фиксированной. По заявлению GitHub, такой подход позволит пользователям делегировать агенту до 20 раз больше задач в рамках своей месячной подписки.
Стоит отметить, что хотя использование премиум-запросов стало предсказуемым, расход минут GitHub Actions все еще зависит от времени, которое требуется агенту на выполнение работы. Функция доступна в публичной бета-версии для всех платных планов GitHub Copilot.
github.blog
Стартап Butterfly Effect, разработчик популярного ИИ-агента Manus, ликвидировал всю свою команду в Китае. Это часть стратегии по минимизации геополитических рисков, поскольку основной целевой рынок компании - США. Ранее стартап уже перенес штаб-квартиру из Китая в Сингапур, куда переехали и его основатели.
Компания, получившая поддержку от фонда Benchmark, теперь активно нанимает сотрудников в новых офисах в Калифорнии и Токио. Решение полностью свернуть операции в КНР отражает растущую тенденцию среди технологических стартапов с глобальными амбициями. Они вынуждены дистанцироваться от Китая, чтобы избежать политического давления и обеспечить себе доступ на западные рынки.
theinformation.com
Стартап Reka, основанный выходцами из DeepMind и FAIR, представил новую открытую модель Reka Flash 3.1. Эта модель с 21 миллиардом параметров показывает высокую производительность в задачах, связанных с программированием, и позиционируется как сильная основа для создания ИИ-агентов. Она уже доступна на Hugging Face, через API и в Playground.
Одновременно компания выпустила библиотеку Reka Quant. Она позволяет сжимать модель до 3.5 бит практически без потери производительности - падение метрик составляет всего 1.6% по сравнению с 6.8% у стандартных методов.
reka.ai
Amazon Web Services на следующей неделе представит собственный маркетплейс для ИИ-агентов. Платформа, запуск которой ожидается на саммите AWS в Нью-Йорке, позволит стартапам напрямую предлагать свои разработки огромной базе корпоративных клиентов облачного гиганта. Anthropic станет одним из ключевых партнеров на старте, что даст ему серьезное преимущество в конкуренции с OpenAI.
Модель работы будет напоминать магазины приложений: AWS будет взимать комиссию, а разработчики смогут продавать своих агентов по подписке. Запуском собственной площадки Amazon следует тренду, заданному конкурентами. Аналогичные маркетплейсы уже есть у Google Cloud, Microsoft, Salesforce и ServiceNow.
techcrunch.com
Google заплатил $2.4 млрд, на $600 млн меньше, чем OpenAI.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤55👍43🔥16🗿8🤣5🥰1
Как получить первый коммерческий опыт до выхода на первую работу, положить в портфолио классный пет-проект и впечатлить работодателя умением не просто действовать по шаблону, а сходу решать задачи бизнеса?
Для этого мало просто разобраться в Python и SQL, нужно набивать руку на реальных кейсах и тренировать насмотренность — смотреть на то как решают эти задачи опытные аналитики.
Решить такой кейс и добавить его к себе в портфолио можно будет на вебинаре с Андроном Алексаняном, аналитиком с 8 летним опытом и по совместительству CEO Simulative.
В прямом эфире он решит реальный кейс компании: проанализирует продажи на Wildberries с помощью Python.
Что будем на вебинаре:
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣33❤18👍14😁3💅2
Это модель, которая не просто доказывает теоремы, а учится на своих ошибках.
Kimina-Prover-72B создана на базе Qwen2.5-72B, которая бьет рекорды в формальной математике на Lean 4 и ее облегченные версии 8 и 1,7 миллиарда параметров.
Numina - это некоммерческая научная коллаборация, ориентированная на развитие ИИ в области математики. Ее миссия: создание и публикация обширных баз данных математических задач, разработку open-source ИИ-решателя для их обработки и инструментов для поддержки совместной работы людей и ИИ в фундаментальных науках.
На популярном бенчмарке miniF2F Kimina-Prover-72B достигла внушительной точности в 92.2%, оставив позади Deepseek-Prover-V2 671B.
Вместо того чтобы пытаться решить сложную задачу в лоб, система научилась декомпозировать ее. Она самостоятельно генерирует, комбинирует и применяет промежуточные утверждения, или леммы, выстраивая из них длинные логические цепочки. По сути, это рекурсивный поиск: для доказательства основной теоремы модель может сначала доказать несколько вспомогательных лемм.
Система отслеживает «рейтинг полезности» каждой леммы и отбраковывает те, что ведут в тупик. Вторым эшелоном идет механизм проверки на вменяемость. Прежде чем использовать новую лемму, модель пытается доказать ее отрицание. Если это удается, значит, лемма противоречива и ее сразу выбрасывают. Такая комбинация гарантирует логическую строгость и надежность всего доказательства.
В отличие от других систем, которые в случае неудачи просто начинают заново, Kimina-Prover умеет читать сообщения об ошибках от компилятора Lean и предлагать исправления.
Для этого ее специально дообучали на датасете из комбинаций «неверное доказательство – фидбэк – верное доказательство». Чтобы обучение шло стабильно, использовали стратегию Batched Failure Replay: все неудачные попытки с одной итерации собираются и используются как обучающий батч для следующей. И это оказалось куда эффективнее, чем бездумный перебор вариантов при том же бюджете вычислений.
@ai_machinelearning_big_data
#AI #ML #LLM #TTRL #Reasoning #KiminaProver
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤64🔥42👍30👏3😁2