Константин Воронцов стал лауреатом Yandex ML Prize 2025
Каждый год Яндекс вручает награды за вклад в развитие машинного обучения. С этого года премия проводится при экспертной поддержке Школы анализа данных и вручается преподавателям и руководителям образовательных программ по искусственному интеллекту.
Особенно рады за Константина Воронцова, профессора РАН и заведующего кафедрами машинного обучения в МГУ и МФТИ –– он получил специальную награду «Зал славы». Он внёс значительный вклад в развитие образования в сфере ML в России и стал одним из создателей MachineLearning.ru — ресурса, на котором выросло целое поколение. Кроме него премию Yandex ML Prize 2025 получили 12 человек, всего было подано 300 заявок.
Каждый год Яндекс вручает награды за вклад в развитие машинного обучения. С этого года премия проводится при экспертной поддержке Школы анализа данных и вручается преподавателям и руководителям образовательных программ по искусственному интеллекту.
Особенно рады за Константина Воронцова, профессора РАН и заведующего кафедрами машинного обучения в МГУ и МФТИ –– он получил специальную награду «Зал славы». Он внёс значительный вклад в развитие образования в сфере ML в России и стал одним из создателей MachineLearning.ru — ресурса, на котором выросло целое поколение. Кроме него премию Yandex ML Prize 2025 получили 12 человек, всего было подано 300 заявок.
👍77🔥33❤14👏4😁4🥰2🤓2
Media is too big
VIEW IN TELEGRAM
UBTech заявила о первой в мире массовой поставке гуманоидных роботов.
Китайская компания из Шэньчжэня уже получила заказы на более чем 800 млн юаней (112 млн долларов) на своего робота Walker S2. Среди них - контракт на 159 млн юаней для проекта по сбору данных в городе Цзыгун и ещё один, на 250 млн юаней, о котором сообщили в сентябре от крупной китайской компании.
Гуманоиды переходят из демонстраций в реальные промышленные поставки - и это серьёзный сигнал для всей отрасли робототехники.
@ai_machinelearning_big_data
#robots #ai
Китайская компания из Шэньчжэня уже получила заказы на более чем 800 млн юаней (112 млн долларов) на своего робота Walker S2. Среди них - контракт на 159 млн юаней для проекта по сбору данных в городе Цзыгун и ещё один, на 250 млн юаней, о котором сообщили в сентябре от крупной китайской компании.
Гуманоиды переходят из демонстраций в реальные промышленные поставки - и это серьёзный сигнал для всей отрасли робототехники.
@ai_machinelearning_big_data
#robots #ai
👍52🔥22🥰9❤8👏3🌚3❤🔥2🥱1
Media is too big
VIEW IN TELEGRAM
В этом режиме появилась динамическая адаптация: для простых задач она использует меньше времени на размышление, а для сложных запросов модель сохраняет способность к глубокому анализу. Также появился режим «без рассуждений».
Для разработчиков появилось 2 новых инструмента. Apply_patch - редактирование кода с помощью патчей и shell - выполнение команд в локальной среде. Ещё добавили расширенное кеширование промптов (до 24 часов), что ускоряет ответы на последующие запросы в рамках одной сессии. Модель уже доступна для всех платных тарифов.
openai.com
Sandboxes for DeepAgents - набор интеграций для безопасного выполнения кода, сгенерированного ИИ-агентами в изолированных удаленных окружениях от партнеров проекта: Runloop, Daytona и Modal.
Новая функция защищает локальную машину от вредоносных действий агента и позволяет создавать чистые окружения с нужными зависимостями под конкретную задачу, не загрязняя основную систему. Это упрощает параллельный запуск нескольких агентов и выполнение длительных операций.
blog.langchain.com
Это второе поколение модели Photoroom и, что важно, оно полностью открытое. В релиз вошли базовая, SFT и дистиллированная версии модели. PRX генерирует изображения в 256 и 512 пикселей, но разработчики также выложили предварительную версию для 1024 пикселей.
PRX получила 1.3 млрд. параметров и была обучена менее чем за 10 дней на 32-х H200. Под капотом - упрощенная архитектура MMDiT, Flux VAE и T5-Gemma в качестве энкодера текста. Попробовать демо-версию можно на Hugging Face Spaces. Семейство моделей доступно на Hugging Face под лицензией Apache 2.0.
CEO Photoroom в сети X
AI Window - новая функция для браузера, которая позволяет взаимодействовать с ИИ-ассистентом во время просмотра веб-страниц. Главный акцент разработчики делают на пользовательском контроле и приватности.
В отличие от конкурентов, которые жестко интегрируют ИИ в свои продукты, Firefox предлагает полностью опциональный подход. Пользователь сам решает, когда ему нужна помощь ассистента, и может в любой момент отключить эту функцию, вернувшись к классическому режиму.
Сейчас Firefox собирает заявки от желающих попробовать AI Window, записаться в лист ожидания можно тут.
blog.mozilla.org
Главная новинка - функция Deep Research, это своего рода ИИ-агент, который автоматизирует процесс онлайн-исследований. Пользователь задает вопрос, после чего система составляет план поиска, анализирует найденные в Интернете материалы и генерирует структурированный отчет с указанием всех источников. Этот отчет и его исходники можно сразу добавить в рабочее пространство для дальнейшего анализа.
Также была расширена поддержка форматов файлов. Теперь NotebookLM может анализировать данные из Google Sheets и документов Microsoft Word. Еще добавлена возможность загружать изображения и добавлять файлы из Google Drive по ссылке.
Все новые функции станут доступны в течение следующей недели, а поддержка изображений появится позже.
blog.google
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤54🔥21🥰10👏1😴1🤷1
Пришло время по-настоящему значимых прорывов.
Небольшая, но приятная победа:
Если в пользовательских инструкциях указать ChatGPT не использовать тире, он наконец-то делает то, что должен!
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣259❤38👍23🔥10
💰 Уоррен Баффетт делает ставку на Google и это может изменить настроение на рынке
Berkshire Hathaway открыла новую крупную позицию в Alphabet на 4.3 млрд долларов. Впервые за долгие годы компания входит в Google таким масштабом и сразу поднимает его в десятку крупнейших активов своего портфеля.
При это Berkshire сократили Apple примерно на пятнадцать процентов хотя она всё ещё остаётся главным активом компании,
В целом Berkshire продаёт больше чем покупает, но для Google делает редкое исключение
Что это может значить
- Баффетт обычно избегает дорогих технологических компаний.
- Инвестиция в Alphabet выглядит как уверенность в том что ИИ сервисы Google могут быть недооценены рынком
Такой шаг может подтолкнуть более осторожных инвесторов пересмотреть отношение к ИИ сектору
Berkshire снижает риски по рынку но видит в Google одну из немногих точек уверенного роста.
Когда даже Баффетт - человек, который десятилетиями обходил большие технологии стороной - впервые заходит в Alphabet на миллиарды, это говорит о потенциале дальнейшего роста рынка, а не о пузыре.
cnbc.com/2025/11/14/warren-buffetts-berkshire-hathaway-reveals-new-position-in-alphabet.html
@ai_machinelearning_big_data
#Alphabet #Google #Finance
Berkshire Hathaway открыла новую крупную позицию в Alphabet на 4.3 млрд долларов. Впервые за долгие годы компания входит в Google таким масштабом и сразу поднимает его в десятку крупнейших активов своего портфеля.
При это Berkshire сократили Apple примерно на пятнадцать процентов хотя она всё ещё остаётся главным активом компании,
В целом Berkshire продаёт больше чем покупает, но для Google делает редкое исключение
Что это может значить
- Баффетт обычно избегает дорогих технологических компаний.
- Инвестиция в Alphabet выглядит как уверенность в том что ИИ сервисы Google могут быть недооценены рынком
Такой шаг может подтолкнуть более осторожных инвесторов пересмотреть отношение к ИИ сектору
Berkshire снижает риски по рынку но видит в Google одну из немногих точек уверенного роста.
Когда даже Баффетт - человек, который десятилетиями обходил большие технологии стороной - впервые заходит в Alphabet на миллиарды, это говорит о потенциале дальнейшего роста рынка, а не о пузыре.
cnbc.com/2025/11/14/warren-buffetts-berkshire-hathaway-reveals-new-position-in-alphabet.html
@ai_machinelearning_big_data
#Alphabet #Google #Finance
👍76❤31🤔19😁9🤗4🔥2🥰2💋2🎅2
Согласно свежему отчету от Challenger о состоянии рынка труда в США на октябрь 2025 года, американские компании объявили о сокращениях 153 тыс. рабочих мест. Это на 175% больше, чем в октябре прошлого года, и на 183% больше, чем в предыдущем месяце.
Фактически, это самый высокий показатель для октября с 2003 года. С начала 2025 года общее число сокращений уже превысило 1 миллион.
Challenger, Gray & Christmas — это авторитетная американская компания в области карьерного консалтинга. Компания работает с 1966 года, имеет офисы по по всей Северной Америке и регулярно публикует отчёты о сокращениях и текучести кадров, которые цитируются ведущими СМИ.
На рынок труда влияют несколько факторов: коррекция пост-ковидного бума в найме, замедление потребительских и корпоративных расходов, и, что важно, внедрение ИИ.
Только за октябрь месяц ИИ был назван прямой причиной сокращения 31 тысячи рабочих мест. А с начала года эта цифра составляет больше 48 тысяч.
В то же время, сам технологический сектор, родитель ИИ, тоже находится под сильным давлением.
В октябре технологические компании объявили о 33 тысячах увольнений. За весь год сокращения в секторе выросли на 17% по сравнению с аналогичным периодом 2024 года.
Однако, отраслью, которая сократила больше всего рабочих мест в октябре, стала складская логистика (47 тыс. рабочих мест). Challenger связывает это с бумом автоматизации.
И пока сокращения растут, картина с наймом новых сотрудников выглядит не лучше.
Планы по найму в этом году упали на 35% по сравнению с прошлым годом, достигнув самого низкого уровня с 2011 года.
Даже сезонный найм находится на самой низкой отметке с тех пор, как Challenger начали отслеживать эти данные в 2012 году.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥47🤔28👍25❤14😢7🫡6🥰5🎉1😐1
⚡ Heretic - инструмент, который автоматически снимает цензуру (alignment) с языковых моделей
Он позволяет «расцепить» модель - убрать отказные фильтры и повысить готовность отвечать на запросы, не изменяя веса исходной модели напрямую.
Что делает Heretic:
- работает как «чёрный ящик»: получает ответы модели через API, не имея доступа к весам
- использует готовые примеры «безопасных» и «опасных» запросов
- обучает дискриминатор, который отличает ответы модели до и после модификации
- подбирает параметры так, чтобы модель давала меньше отказов, но сохраняла адекватность
- после завершения процесс можно сохранить финальную модель или протестировать её в чат-режиме
Зачем это нужно:
- позволяет локальным моделям отвечать шире, чем обычно позволяет их встроенный alignment
- минимизирует потерю качества — сделано так, чтобы модель не «тупела» и не отклонялась слишком сильно
- подходит для исследований поведения моделей и экспериментов с ограничениями
Важные моменты:
- инструмент мощный и может использоваться по-разному
- юридические и этические вопросы остаются на стороне пользователя
- автор подчёркивает: это не средство повышения точности модели, а именно инструмент снятия ограничений
https://github.com/p-e-w/heretic
@ai_machinelearning_big_data
#llm #opensource #ml
Он позволяет «расцепить» модель - убрать отказные фильтры и повысить готовность отвечать на запросы, не изменяя веса исходной модели напрямую.
Что делает Heretic:
- работает как «чёрный ящик»: получает ответы модели через API, не имея доступа к весам
- использует готовые примеры «безопасных» и «опасных» запросов
- обучает дискриминатор, который отличает ответы модели до и после модификации
- подбирает параметры так, чтобы модель давала меньше отказов, но сохраняла адекватность
- после завершения процесс можно сохранить финальную модель или протестировать её в чат-режиме
Зачем это нужно:
- позволяет локальным моделям отвечать шире, чем обычно позволяет их встроенный alignment
- минимизирует потерю качества — сделано так, чтобы модель не «тупела» и не отклонялась слишком сильно
- подходит для исследований поведения моделей и экспериментов с ограничениями
Важные моменты:
- инструмент мощный и может использоваться по-разному
- юридические и этические вопросы остаются на стороне пользователя
- автор подчёркивает: это не средство повышения точности модели, а именно инструмент снятия ограничений
https://github.com/p-e-w/heretic
@ai_machinelearning_big_data
#llm #opensource #ml
❤86🔥50👍11🥰10🤗4✍3🦄1
🚀 Holo2 - новое поколение мультимодальных моделей, созданных для понимания интерфейсов, навигации и рассуждений в вебе, на десктопах и в мобильных средах.
📈 Результаты
Holo2 обновляет рекорды на ключевых бенчмарках UI-grounding:
- 66.1% (+3%) на ScreenSpot-Pro
- 76.1% (+5%) на OSWorld-G
Модель уверенно превосходит все существующие аналоги.
🧠 Архитектура
Holo2 построена на Qwen3-VL. Модель показывает сильное понимание интерфейсов и заметно улучшает навигацию и способность рассуждать, в отличие от предыдущих версий.
Модель одинаково хорошо запускается в браузере, на Ubuntu и Android.
🔀 Mixture of Experts
Флагманская версия 30B-A3B активирует только 3B параметров в каждом шаге - выдавая качество 30B-модели при гораздо меньшей себестоимости вычислений.
Модель сама генерирует reasoning-токены - это повышает точность и устойчивость к контексту.
Holo2 полностью совместима с архитектурой Surfer 2 и ReAct-пайплайнами - подходит для создания продвинутых UI-агентов.
⚙️ Развёртывание
Запускается напрямую через vLLM и любой фреймворк, совместимый с Qwen3-VL.
📜 Лицензии
- 4B и 8B — Apache-2
- 30B-A3B — только для некоммерческого использования
🔥 Блог: http://hcompany.ai/blog/holo2
🍳 Cookbook: https://github.com/hcompai/hai-cookbook/blob/main/holo2/holo_2_localization_huggingface.ipynb
🤗 HuggingFace: https://huggingface.co/collections/Hcompany/holo2
@ai_machinelearning_big_data
📈 Результаты
Holo2 обновляет рекорды на ключевых бенчмарках UI-grounding:
- 66.1% (+3%) на ScreenSpot-Pro
- 76.1% (+5%) на OSWorld-G
Модель уверенно превосходит все существующие аналоги.
🧠 Архитектура
Holo2 построена на Qwen3-VL. Модель показывает сильное понимание интерфейсов и заметно улучшает навигацию и способность рассуждать, в отличие от предыдущих версий.
Модель одинаково хорошо запускается в браузере, на Ubuntu и Android.
🔀 Mixture of Experts
Флагманская версия 30B-A3B активирует только 3B параметров в каждом шаге - выдавая качество 30B-модели при гораздо меньшей себестоимости вычислений.
Модель сама генерирует reasoning-токены - это повышает точность и устойчивость к контексту.
Holo2 полностью совместима с архитектурой Surfer 2 и ReAct-пайплайнами - подходит для создания продвинутых UI-агентов.
⚙️ Развёртывание
Запускается напрямую через vLLM и любой фреймворк, совместимый с Qwen3-VL.
📜 Лицензии
- 4B и 8B — Apache-2
- 30B-A3B — только для некоммерческого использования
🔥 Блог: http://hcompany.ai/blog/holo2
🍳 Cookbook: https://github.com/hcompai/hai-cookbook/blob/main/holo2/holo_2_localization_huggingface.ipynb
🤗 HuggingFace: https://huggingface.co/collections/Hcompany/holo2
@ai_machinelearning_big_data
❤46👍20🔥15
Media is too big
VIEW IN TELEGRAM
Компания выпустила расширение, которое напрямую связывает редактор кода со средами выполнения Google Colab. Иными словами, теперь можно работать с локальными .ipynb файлами, но выполнять код на Google Colab. Поддерживается подключение как к бесплатным средам выполнения, так и к премиум-тарифам Colab Pro.
Для начала работы достаточно установить расширение Google Colab из VS Code Marketplace. При выборе ядра для ноутбука появится опция «Colab», после чего нужно будет авторизоваться в аккаунте Google. Расширение также опубликовано в реестре Open VSX для совместимых редакторов.
developers.googleblog.com
Depth Anything 3 может предсказывает пространственно-согласованную геометрию по одному или нескольким изображениям, даже без известных параметров камеры. Ключевая особенность релиза - в радикальном упрощении архитектуры.
Под капотом единый трансформер и унифицированное представление depth-ray. Одна и та же модель теперь решает целый спектр задач: от монокулярной оценки глубины и определения поз камеры до прямой генерации 3D гауссианов для синтеза новых ракурсов.
В тестах DA3 превзошла предыдущие версии. Команда выпустила веса моделей, инструментарий CLI и WebUI на Gradio.
depth-anything-3.github.io
Компания закрыла раунд финансирования на 20 млрд. иен, в результате чего её оценка достигла около $2.635 млрд. Это сделало её самым дорогим непубличным стартапом в истории Японии. Среди инвесторов - Mitsubishi UFJ Financial Group и американские венчурные фонды.
Привлечённые средства будут направлены на разработку собственной LLM, адаптированной под особенности японского языка и культуры. Компания уже сотрудничает с MUFG и Daiwa Securities для создания специализированного ИИ для финансового сектора, а в будущем планирует расширяться в оборонную и обрабатывающую промышленность.
asia.nikkei.com
Основатель Amazon впервые после ухода с поста CEO занял операционную должность, став соруководителем ИИ-стартапа Project Prometheus. Компания привлекла $6.2 млрд, часть из которых — личные средства Безоса, что делает её одним из самых финансируемых стартапов на ранней стадии. Вторым CEO стал Вик Баджадж, физик и химик, ранее работавший в Google X над проектом Waymo.
Prometheus сфокусируется на создании ИИ-инструментов для ускорения инженерных и производственных процессов в автомобилестроении, аэрокосмической сфере и вычислительной техники. Стартап нацелен на сегмент ИИ-систем для робототехники, научные исследования и разработку материалов.
Несмотря на скрытный режим работы, команда проекта уже насчитывает около 100 специалистов, выходцев из OpenAI и DeepMind и компании Марка Цукербурга.
nytimes.com
Актёр Калум Уорти запустил ИИ-платформу 2wai, которая создаёт интерактивные цифровые копии ушедших из жизни людей. Для генерации приложению достаточно нескольких минут видеозаписи с человеком и после их оцифровки, пользователь может взаимодействовать с аватаром своего родственника, симулируя общение на разных этапах жизни.
В сети проект вызвал волну негатива и обвинение создателей в эксплуатации горя. Основные претензии сводятся к тому, что технология мешает здоровому процессу скорби и использует образы людей без их согласия.
Бета-версия приложения уже доступна в App Store. В будущем разработчики планируют ввести платную подписку и выпустить версию для Android.
Calum Worthy в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍75❤26🔥14❤🔥2🥰1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
Конференция AI Driver & RecSys Темы — пространство, где наука и бизнес встречаются, чтобы обсудить будущее рекомендаций ⚡️
28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.
На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.
Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.
Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!
28 ноября пройдёт конференция о том, как создаются и развиваются современные рекомендательные системы.
На площадке Сбера соберутся эксперты топовых российских IT-компаний и вузов, чтобы обсудить новые исследования, открытые датасеты и практические решения, которые меняют подход к персонализации.
Это возможность за один день познакомиться с ключевыми трендами RecSys, пообщаться со специалистами и вдохновиться идеями, формирующими будущее рекомендаций.
Присоединяйтесь к профессиональному сообществу 28 ноября в 10:00 — регистрация по ссылке!
👍21❤10🔥7🥰2😁1🤩1
Media is too big
VIEW IN TELEGRAM
Новая погодная модель стала быстрее и более детализированной. Она может генерировать прогнозы в 8 раз быстрее, чем предыдущие версии, с разрешением до одного часа.
Но самое важное - это способность модели создавать сотни возможных сценариев развития погоды. Вместо одного прогноза система показывает целый спектр вероятностей, включая и наихудшие варианты, что критически важно для планирования в чрезвычайных ситуациях.
Каждый такой прогноз генерируется менее чем за минуту на одном TPU-чипе, в то время как традиционным физическим моделям на суперкомпьютере на это потребовались бы часы.
В основе WeatherNext 2 лежит метод Functional Generative Network, или FGN. Эта сеть вводит шум прямо в архитектуру модели, что позволяет ей генерировать физически реалистичные и взаимосвязанные прогнозы.
Интересно, что модель обучалась только на отдельных, разрозненных элементах погоды, которые метеорологи называют "marginals" - это, например, температура в конкретной точке или скорость ветра на определенной высоте.
И на основе этих данных модель самостоятельно учится прогнозировать "joints" — большие, сложные и взаимосвязанные погодные системы. По словам Google, WeatherNext 2 превосходит свою предыдущую версию по 99.9% переменных для прогнозов на срок от 0 до 15 дней.
Данные от WeatherNext 2 уже доступны в Earth Engine и BigQuery для исследователей и разработчиков. Кроме того, технология интегрирована в продукты Google: Поиск, Gemini, Pixel Weather и Weather API для Google Maps, а в ближайшие недели появится и в самих Картах Google.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42❤19🔥14⚡1
Forwarded from Анализ данных (Data analysis)
Утекли бенчмарки Gemini 3.0 Pro от taker_of_whizz —пока не можем подтвердить подлинность, но цифры просто безумные.
Результаты разрывают всё, что мы видели раньше:
🔥 HLE: 37,5%
🔥 MathArena Apex: 22,3%
(для сравнения — **GPT-5.1 всего 1,0%**)
Если утечка реальна, Gemini 3.0 Pro именно такой, каким все его и хотели видеть — мощный, продвинутый и с невероятным ростом математических и логических способностей.
Ждём официального подтверждения, но выглядит *очень* многообещающе.
https://storage.googleapis.com/deepmind-media/Model-Cards/Gemini-3-Pro-Model-Card.pdf
Результаты разрывают всё, что мы видели раньше:
🔥 HLE: 37,5%
🔥 MathArena Apex: 22,3%
(для сравнения — **GPT-5.1 всего 1,0%**)
Если утечка реальна, Gemini 3.0 Pro именно такой, каким все его и хотели видеть — мощный, продвинутый и с невероятным ростом математических и логических способностей.
Ждём официального подтверждения, но выглядит *очень* многообещающе.
https://storage.googleapis.com/deepmind-media/Model-Cards/Gemini-3-Pro-Model-Card.pdf
🔥118👍20❤17🤨8🤷♂4🥰1🤗1
🚀 VK представила новые технологии глубокого понимания контента - Discovery
VK обновила рекомендации за счёт технологий, которые понимают не только поведение пользователей, но и сам смысл контента.
🔥 Главное
- Кросс-форматная модель объединяет название, обложку, аудио и видео в единое семантическое пространство - рекомендации работают между разными продуктами VK.
- Мультимодальная языковая модель (MMLM) анализирует смысл, эмоции, темы, фрагменты видео и комментарии. Обучена на миллионах русскоязычных материалов.
- Автоматическое распознавание известных персон на видео показывает контент с любимыми героями чаще.
📈 Результаты
+7% позитивных реакций
+60% точности подбора похожих видео
Новый контент начинает показываться быстрее, без ожидания первых лайков
🔐 Конфиденциальность
Хранятся только данные о медийных персонажах, которые появляются в популярных видео более 10 раз.
VK делает ставку на модели, которые понимают семантику, а не просто клики - и метрики это подтверждают.
VK обновила рекомендации за счёт технологий, которые понимают не только поведение пользователей, но и сам смысл контента.
🔥 Главное
- Кросс-форматная модель объединяет название, обложку, аудио и видео в единое семантическое пространство - рекомендации работают между разными продуктами VK.
- Мультимодальная языковая модель (MMLM) анализирует смысл, эмоции, темы, фрагменты видео и комментарии. Обучена на миллионах русскоязычных материалов.
- Автоматическое распознавание известных персон на видео показывает контент с любимыми героями чаще.
📈 Результаты
+7% позитивных реакций
+60% точности подбора похожих видео
Новый контент начинает показываться быстрее, без ожидания первых лайков
🔐 Конфиденциальность
Хранятся только данные о медийных персонажах, которые появляются в популярных видео более 10 раз.
VK делает ставку на модели, которые понимают семантику, а не просто клики - и метрики это подтверждают.
🌚30🤣30🗿19❤15👍13😁5🔥4🤬2💅2🙊2🤷♂1
🔥 Вышла Gemini 3 Pro
Контекст: 1M токенов, вывод — 64k, knowledge cut — январь 2025
• Стоимость: $2 / $12 (<200k токенов) и $4 / $18 (>200k токенов)
• SOTA-результаты на большинстве бенчмарков
• 1501 Elo на LMArena
• next-level возможности для vibe coding и сложных кодовых задач
• продвинутое мультимодальное понимание (текст, код, картинки и не только)
Попробовать можно бесплатно - может понадобиться иностранный IP: https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview
@ai_machinelearning_big_data
#news #ai #google #Gemini
Контекст: 1M токенов, вывод — 64k, knowledge cut — январь 2025
• Стоимость: $2 / $12 (<200k токенов) и $4 / $18 (>200k токенов)
• SOTA-результаты на большинстве бенчмарков
• 1501 Elo на LMArena
• next-level возможности для vibe coding и сложных кодовых задач
• продвинутое мультимодальное понимание (текст, код, картинки и не только)
Попробовать можно бесплатно - может понадобиться иностранный IP: https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview
@ai_machinelearning_big_data
#news #ai #google #Gemini
🔥107❤25👍16⚡3🤬3👏2💘1
Media is too big
VIEW IN TELEGRAM
Компании заключили трехстороннее соглашение, меняющее расклад сил в индустрии. В рамках партнерства Anthropic обязуется закупить вычислительные мощности в Microsoft Azure на $30 млрд. В свою очередь, Nvidia инвестирует в стартап до $10 млрд, а Microsoft вложит еще до $5 млрд.
К тому же, это первое сотрудничество Anthropic и Nvidia на уровне моделей: алгоритмы Claude будут оптимизированы под архитектуры Grace Blackwell и будущие Vera Rubin.
Еще модели Claude Sonnet 4.5, Opus 4.1 и Haiku 4.5 станут доступны клиентам Microsoft Foundry и будут интегрированы в Copilot (GitHub и Microsoft 365). Сделка делает Claude единственной LLM топ-уровня, представленной на всех трех главных облачных платформах мира.
blogs.microsoft.com
Cloudflare объявила о присоединении Replicate, платформы для запуска и деплоя ИИ-моделей. Покупка станет частью единой инфраструктуры «AI Cloud», объединяющей глобальную периферийную сеть Cloudflare с инструментарием Replicate для работы с нейросетями.
Для разработчиков это означает крупное обновление сервиса Workers AI. В скором времени каталог из более чем 50 тыс. моделей Replicate станет доступен внутри экосистемы Cloudflare. Фишкой слияния станет поддержка запуска кастомных моделей и дообучения непосредственно на Workers AI.
Существующие API Replicate продолжат работать и получат буст производительности за счет инфраструктуры Cloudflare. Также в планах интеграция с другими сервисами: объектным хранилищем R2, векторной базой Vectorize и шлюзом AI Gateway.
blog.cloudflare.com
В отличие от Cursor или GitHub Copilot, Antigravity получил режим Manager View. Это центр управления для оркестрации работы множества агентов, выполняющих задачи параллельно в разных воркспейсах.
Агенты работают на базе Gemini 3 Pro, Claude Sonnet 4.5 или GPT-OSS и имеют прямой доступ к редактору, терминалу и браузеру. Инструмент умеет запоминать контекст прошлых проектов и обучаться на действиях пользователя.
Antigravity уже доступна в публичном превью для macOS, Windows и Linux бесплатно, причём Google обещает «щедрые лимиты» на использование моделей.
antigravity.google
На конференции SC25 состоялся анонс моделей Apollo, нацеленных на ускорение промышленного инжиниринга. Новое семейство позволит внедрять возможности ИИ в ПО для сложных вычислений в реальном времени — от проектирования микросхем и аэродинамики до прогнозирования климата и задач термоядерного синтеза.
В основе Apollo лежит комбинация нейронных операторов, трансформеров и диффузионных методов, адаптированных под законы физики. Инициативу уже поддержали Siemens, Cadence и Synopsys, которые планируют интегрировать новинку в свои продукты. Модели в скором времени появятся на HuggingFace и платформе NVIDIA NIM.
blogs.nvidia.com
DR Tulu — открытая модель на 8 млрд. параметров для создания агентов глубокого поиска, которая может самостоятельно планировать исследование, использовать внешние поисковые инструменты, собирать информацию из множества источников и предоставлять ответы с точными ссылками.
Модель учили на методе RLER (Reinforcement Learning with Evolving Rubrics). Вместо статических наград методика использует динамические критерии оценки, которые эволюционируют вместе с моделью. Это предотвращает взлом вознаграждения и заставляет агента реально анализировать контекст, а не имитировать правильный формат ответа.
По тестам DR Tulu-8B не уступает решениям от OpenAI и Perplexity на задачах long-form research, но работает кардинально дешевле. Стоимость выполнения сложного запроса у нее менее одного цента, тогда как аналогичная задача у OpenAI может стоить $1.80.
allenai.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍68❤28🔥15🤔4🤬2
Андрей Карпаты опубликовал у себя в Github небольшой проект - утилиту под названием reader3.
На первый взгляд, это просто легковесная читалка для электронных книг в формате EPUB, которую можно запустить у себя на компьютере. Но главная идея в том, чтобы читать книги вместе с LLM.
Reader3 разбивает книгу по главам, и пользователь может легко скопировать текст текущей главы и вставить его в свой любимый LLM, чтобы обсуждать сюжет, анализировать стиль или задавать вопросы по тексту.
Но самое интересное здесь — это философия, которая стоит за проектом. Карпаты пишет, что проект написан "на 90% вайбкодингом", просто для иллюстрации идеи и что он не собирается его поддерживать или улучшать.
Я начинаю привыкать читать все (блоги, статьи, главы книг и т. д.) с помощью LLM. Обычно первый проход — ручной, второй — «объяснение/резюме», третий — вопросы и ответы.
В результате я обычно получаю более глубокое понимание, чем если бы я просто прошел дальше. Этот процесс становится у меня одним из самых популярных вариантов чтения.
А вместо этого предлагает пользователям... просто попросить свою языковую модель изменить код так, как им нравится.
Код теперь эфемерный,
— пишет Андрей, намекая на то, что эпоха статичных библиотек и долгой поддержки уходит в прошлое.
Для тех, кто хочет попробовать, процесс максимально прост. Нужно скачать книгу в формате EPUB и запустить пару команд в терминале, используя
uv:uv run reader3.py yourbook.epub
# Then run the server:
uv run server.py
После этого ваша книжная полка станет доступна в браузере по адресу
localhost:8123.@ai_machinelearning_big_data
#AI #ML #LLM #Karpathy #Github #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
👍55❤23🔥17🤔7🥱4🥰2❤🔥1😁1
Forwarded from ТЕХНО: Яндекс про технологии
Как правильно писать промпты?
Научиться проще всего на примерах, а искать их — на Промптхабе Яндекса. Это новая площадка с готовыми идеями использования ИИ на все случаи жизни и промптами для реализации этих идей. Ещё там можно делиться опытом и проходить бесплатные курсы по работе с нейросетями, чтобы научиться составлять эффективные промпты. Это тонкая наука, но есть базовые принципы, которые почти всегда улучшают выдачу.
🟣 Будьте конкретнее
Не жалейте слов в промпте и описывайте, каким вы хотите видеть результат. Пишите чётко, без противоречий и двусмысленности.
🟣 Давайте контекст и примеры
Примеры хороших результатов резко повышают качество. А контекст (дополнительная информация для нейросети) ещё точнее помогает нейросети понять, чего от неё хотят.
🟣 Просите несколько версий ответа
Скажите нейросети сделать несколько вариантов ответа в разных стилях — можно выбрать лучший или взять что-то из каждого.
🟣 Действуйте итеративно
Первый результат почти никогда не бывает финальным. Анализируйте ответ, давайте указания или улучшайте исходный промпт: диалог с ИИ — это итеративный процесс уточнения и улучшения.
🟣 Разбивайте сложные задачи на мелкие
Не пытайтесь получить всё и сразу. Делите на этапы или сначала попросите общую структуру, а потом прорабатывайте детали.
Подписывайтесь 👉 @techno_yandex
Научиться проще всего на примерах, а искать их — на Промптхабе Яндекса. Это новая площадка с готовыми идеями использования ИИ на все случаи жизни и промптами для реализации этих идей. Ещё там можно делиться опытом и проходить бесплатные курсы по работе с нейросетями, чтобы научиться составлять эффективные промпты. Это тонкая наука, но есть базовые принципы, которые почти всегда улучшают выдачу.
Не жалейте слов в промпте и описывайте, каким вы хотите видеть результат. Пишите чётко, без противоречий и двусмысленности.
Примеры хороших результатов резко повышают качество. А контекст (дополнительная информация для нейросети) ещё точнее помогает нейросети понять, чего от неё хотят.
Скажите нейросети сделать несколько вариантов ответа в разных стилях — можно выбрать лучший или взять что-то из каждого.
Первый результат почти никогда не бывает финальным. Анализируйте ответ, давайте указания или улучшайте исходный промпт: диалог с ИИ — это итеративный процесс уточнения и улучшения.
Не пытайтесь получить всё и сразу. Делите на этапы или сначала попросите общую структуру, а потом прорабатывайте детали.
Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤10🗿6😁3👌2🤝2🔥1🥰1
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.
Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.
TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.
**🚀 Ironwood (TPUv7):*
Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти
Такой уровень идеально подходит для LLM, где важны скорость и масштаб.
🔥 Sunfish (предположительно TPUv8)
Следующее поколение создаётся совместно с Broadcom.
Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.
💡 Zebrafish: гибкая и массовая линейка
MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров
То есть не только для гигантских суперкомпьютеров, но и для широкого использования.
🌐 Зачем Google три разных TPU?
Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем
Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.
@ai_machinelearning_big_data
#google #tpu
Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.
TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.
**🚀 Ironwood (TPUv7):*
Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти
Такой уровень идеально подходит для LLM, где важны скорость и масштаб.
🔥 Sunfish (предположительно TPUv8)
Следующее поколение создаётся совместно с Broadcom.
Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.
💡 Zebrafish: гибкая и массовая линейка
MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров
То есть не только для гигантских суперкомпьютеров, но и для широкого использования.
🌐 Зачем Google три разных TPU?
Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем
Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.
@ai_machinelearning_big_data
#google #tpu
❤38👍22🔥13
