Telegram Web
🚀 VK представила новые технологии глубокого понимания контента - Discovery

VK обновила рекомендации за счёт технологий, которые понимают не только поведение пользователей, но и сам смысл контента.

🔥 Главное
- Кросс-форматная модель объединяет название, обложку, аудио и видео в единое семантическое пространство - рекомендации работают между разными продуктами VK.
- Мультимодальная языковая модель (MMLM) анализирует смысл, эмоции, темы, фрагменты видео и комментарии. Обучена на миллионах русскоязычных материалов.
- Автоматическое распознавание известных персон на видео показывает контент с любимыми героями чаще.

📈 Результаты
+7% позитивных реакций
+60% точности подбора похожих видео
Новый контент начинает показываться быстрее, без ожидания первых лайков

🔐 Конфиденциальность
Хранятся только данные о медийных персонажах, которые появляются в популярных видео более 10 раз.

VK делает ставку на модели, которые понимают семантику, а не просто клики - и метрики это подтверждают.
🌚31🤣31🗿2015👍14😁5🔥4🤬2💅2🙊2🤷‍♂1
🔥 Вышла Gemini 3 Pro

Контекст: 1M токенов, вывод — 64k, knowledge cut — январь 2025
• Стоимость: $2 / $12 (<200k токенов) и $4 / $18 (>200k токенов)

• SOTA-результаты на большинстве бенчмарков
• 1501 Elo на LMArena
• next-level возможности для vibe coding и сложных кодовых задач
• продвинутое мультимодальное понимание (текст, код, картинки и не только)

Попробовать можно бесплатно - может понадобиться иностранный IP: https://aistudio.google.com/prompts/new_chat?model=gemini-3-pro-preview

@ai_machinelearning_big_data

#news #ai #google #Gemini
🔥11226👍163🤬3👏2💘1
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft, Nvidia и Anthropic заключили сделку на $45 млрд.

Компании заключили трехстороннее соглашение, меняющее расклад сил в индустрии. В рамках партнерства Anthropic обязуется закупить вычислительные мощности в Microsoft Azure на $30 млрд. В свою очередь, Nvidia инвестирует в стартап до $10 млрд, а Microsoft вложит еще до $5 млрд.

К тому же, это первое сотрудничество Anthropic и Nvidia на уровне моделей: алгоритмы Claude будут оптимизированы под архитектуры Grace Blackwell и будущие Vera Rubin.

Еще модели Claude Sonnet 4.5, Opus 4.1 и Haiku 4.5 станут доступны клиентам Microsoft Foundry и будут интегрированы в Copilot (GitHub и Microsoft 365). Сделка делает Claude единственной LLM топ-уровня, представленной на всех трех главных облачных платформах мира.
blogs.microsoft.com

✔️ Платформа Replicate интегрируется в Cloudflare.

Cloudflare объявила о присоединении Replicate, платформы для запуска и деплоя ИИ-моделей. Покупка станет частью единой инфраструктуры «AI Cloud», объединяющей глобальную периферийную сеть Cloudflare с инструментарием Replicate для работы с нейросетями.

Для разработчиков это означает крупное обновление сервиса Workers AI. В скором времени каталог из более чем 50 тыс. моделей Replicate станет доступен внутри экосистемы Cloudflare. Фишкой слияния станет поддержка запуска кастомных моделей и дообучения непосредственно на Workers AI.

Существующие API Replicate продолжат работать и получат буст производительности за счет инфраструктуры Cloudflare. Также в планах интеграция с другими сервисами: объектным хранилищем R2, векторной базой Vectorize и шлюзом AI Gateway.
blog.cloudflare.com

✔️ Google Antigravity: среда разработки для управления роем ИИ-агентов.

В отличие от Cursor или GitHub Copilot, Antigravity получил режим Manager View. Это центр управления для оркестрации работы множества агентов, выполняющих задачи параллельно в разных воркспейсах.

Агенты работают на базе Gemini 3 Pro, Claude Sonnet 4.5 или GPT-OSS и имеют прямой доступ к редактору, терминалу и браузеру. Инструмент умеет запоминать контекст прошлых проектов и обучаться на действиях пользователя.

Antigravity уже доступна в публичном превью для macOS, Windows и Linux бесплатно, причём Google обещает «щедрые лимиты» на использование моделей.
antigravity.google

✔️ NVIDIA представила семейство открытых моделей для физических симуляций и научных расчетов.

На конференции SC25 состоялся анонс моделей Apollo, нацеленных на ускорение промышленного инжиниринга. Новое семейство позволит внедрять возможности ИИ в ПО для сложных вычислений в реальном времени — от проектирования микросхем и аэродинамики до прогнозирования климата и задач термоядерного синтеза.

В основе Apollo лежит комбинация нейронных операторов, трансформеров и диффузионных методов, адаптированных под законы физики. Инициативу уже поддержали Siemens, Cadence и Synopsys, которые планируют интегрировать новинку в свои продукты. Модели в скором времени появятся на HuggingFace и платформе NVIDIA NIM.
blogs.nvidia.com

✔️ Ai2 выпустил Deep Research Tulu — открытый аналог OpenAI Deep Research.

DR Tulu — открытая модель на 8 млрд. параметров для создания агентов глубокого поиска, которая может самостоятельно планировать исследование, использовать внешние поисковые инструменты, собирать информацию из множества источников и предоставлять ответы с точными ссылками.

Модель учили на методе RLER (Reinforcement Learning with Evolving Rubrics). Вместо статических наград методика использует динамические критерии оценки, которые эволюционируют вместе с моделью. Это предотвращает взлом вознаграждения и заставляет агента реально анализировать контекст, а не имитировать правильный формат ответа.

По тестам DR Tulu-8B не уступает решениям от OpenAI и Perplexity на задачах long-form research, но работает кардинально дешевле. Стоимость выполнения сложного запроса у нее менее одного цента, тогда как аналогичная задача у OpenAI может стоить $1.80.
allenai.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍7031🔥15🤔4🤬2
🌟 Reader3: легковесная читалка для книг от Andrej Karpathy

Андрей Карпаты опубликовал у себя в Github небольшой проект - утилиту под названием reader3.

На первый взгляд, это просто легковесная читалка для электронных книг в формате EPUB, которую можно запустить у себя на компьютере. Но главная идея в том, чтобы читать книги вместе с LLM.

Reader3 разбивает книгу по главам, и пользователь может легко скопировать текст текущей главы и вставить его в свой любимый LLM, чтобы обсуждать сюжет, анализировать стиль или задавать вопросы по тексту.

Но самое интересное здесь — это философия, которая стоит за проектом. Карпаты пишет, что проект написан "на 90% вайбкодингом", просто для иллюстрации идеи и что он не собирается его поддерживать или улучшать.

Я начинаю привыкать читать все (блоги, статьи, главы книг и т. д.) с помощью LLM. Обычно первый проход — ручной, второй — «объяснение/резюме», третий — вопросы и ответы.

В результате я обычно получаю более глубокое понимание, чем если бы я просто прошел дальше. Этот процесс становится у меня одним из самых популярных вариантов чтения.


А вместо этого предлагает пользователям... просто попросить свою языковую модель изменить код так, как им нравится.

Код теперь эфемерный,

— пишет Андрей, намекая на то, что эпоха статичных библиотек и долгой поддержки уходит в прошлое.

Для тех, кто хочет попробовать, процесс максимально прост. Нужно скачать книгу в формате EPUB и запустить пару команд в терминале, используя uv:

uv run reader3.py yourbook.epub

# Then run the server:

uv run server.py


После этого ваша книжная полка станет доступна в браузере по адресу localhost:8123.


📌Лицензирование: MIT License.


🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #Karpathy #Github #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6126🔥18🤔9🥱5❤‍🔥2🥰2😁1🤷1
Как правильно писать промпты?

Научиться проще всего на примерах, а искать их — на Промптхабе Яндекса. Это новая площадка с готовыми идеями использования ИИ на все случаи жизни и промптами для реализации этих идей. Ещё там можно делиться опытом и проходить бесплатные курсы по работе с нейросетями, чтобы научиться составлять эффективные промпты. Это тонкая наука, но есть базовые принципы, которые почти всегда улучшают выдачу.

🟣 Будьте конкретнее

Не жалейте слов в промпте и описывайте, каким вы хотите видеть результат. Пишите чётко, без противоречий и двусмысленности.

🟣 Давайте контекст и примеры

Примеры хороших результатов резко повышают качество. А контекст (дополнительная информация для нейросети) ещё точнее помогает нейросети понять, чего от неё хотят.

🟣 Просите несколько версий ответа

Скажите нейросети сделать несколько вариантов ответа в разных стилях — можно выбрать лучший или взять что-то из каждого.

🟣 Действуйте итеративно

Первый результат почти никогда не бывает финальным. Анализируйте ответ, давайте указания или улучшайте исходный промпт: диалог с ИИ — это итеративный процесс уточнения и улучшения.

🟣 Разбивайте сложные задачи на мелкие

Не пытайтесь получить всё и сразу. Делите на этапы или сначала попросите общую структуру, а потом прорабатывайте детали.

Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2210🗿6😁4👌2🤝2🔥1🥰1
📢 Google уверенно выводит свои TPU на новый уровень — и делает это сразу по трём направлениям.

Компания развивает три семейства собственных ускорителей: Ironwood, Sunfish и Zebrafish.
Так Google закрывает потребности в высокопроизводительном инференсе, обучении моделей и создании огромных суперподов на 2026–2027 годов.

TPU уже используют Safe Superintelligence, Salesforce и Midjourney - то есть экосистема растёт.

**🚀 Ironwood (TPUv7):*

Это самое впечатляющее поколение TPU на сегодня:
• примерно 10× быстрее TPU v5
• примерно 4× производительнее TPU v6
• до 4,600 FP8 TFLOPS на чип
• 192 GB HBM3e
• масштабирование до 9,216 чипов в одном поде
• около 1.77 PB общей памяти

Такой уровень идеально подходит для LLM, где важны скорость и масштаб.

🔥 Sunfish (предположительно TPUv8)

Следующее поколение создаётся совместно с Broadcom.

Запуск ожидается ближе к концу 2020-х, и Sunfish должен стать главным ускорителем Google Cloud.

💡 Zebrafish: гибкая и массовая линейка

MediaTek выступает ключевым партнером по ASIC.
Zebrafish будет:
• более доступным по цене
• с гибкими характеристиками
• подходящим для локальных и более компактных кластеров

То есть не только для гигантских суперкомпьютеров, но и для широкого использования.

🌐 Зачем Google три разных TPU?

Это даёт компании возможность:
• разделять нагрузки между поколениями
• удерживать клиентов уровня Anthropic
• обеспечивать более 1 ГВт выделенной мощности
• конкурировать с Nvidia на уровне не только чипов, но целых систем

Google строит собственную вертикаль ИИ-инфраструктуры - масштабную, гибкую и рассчитанную на годы вперёд. Все это нужно, чтобы доминировать на рынке ИИ.

@ai_machinelearning_big_data

  #google #tpu
54👍26🔥15❤‍🔥1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI выпустила GPT-5.1-Codex-Max.

GPT-5.1-Codex-Max - агентная модель для «тяжелой» разработки. Основной упор сделан на длительные процессы: теперь модель эффективнее справляется с многочасовым рефакторингом и сложными агентными циклами внутри IDE. Фишка релиза в технологии «уплотнения», благодаря которой модель удерживает контекст на миллионах токенов без потери связности.

По тестам, проведенным OpenAI в SWE-Bench Verified точность выросла до 77,9%, а в SWE-Lancer - почти 80%. Новинка уже стала дефолтной моделью в среде Codex для подписчиков Plus и Pro, а доступ через API разработчики получат в ближайшее время.
openai.com

✔️ Stack Overflow планирует стать провайдером данных для корпоративного ИИ.

На конференции Microsoft Ignite платформа объявила о смене стратегии: теперь это не просто база знаний, а инфраструктурный элемент для корпоративных нейросетей. Обновленный продукт Stack Internal конвертирует внутреннюю экспертизу компаний в формат, доступный ИИ-агентам через MCP.

Технически будет добавлен слой метаданных, формирующий рейтинг надежности. Система анализирует автора, актуальность и связность ответа, чтобы агент мог взвесить достоверность информации перед использованием. CEO компании признался, что этот шаг вдохновлен успешными сделками по продаже данных для обучения моделей (по аналогии с Reddit).
stackoverflow.blog

✔️ Microsoft запустила платформу Agent 365 для управления ИИ-агентами.

Agent 365 — инструмент, который позволяет организациям администрировать парк ИИ-агентов как обычных сотрудников. Платформа использует Microsoft Entra для создания единого реестра всех корпоративных ботов, присваивая каждому уникальный ID для строгого разграничения прав доступа и интеграции с корпоративными данными.

Помимо безопасности (за которую отвечают Defender и Purview), система предлагает специальные дашборды, которые показывают эффективность работы каждого агента в реальном времени. Agent 365 не замыкается на нативном Copilot Studio, он поддерживает open-source фреймворки и сторонние решения от партнеров MS. Инструмент уже появился в админ-панели Microsoft 365 в рамках программы тестирования.
microsoft.com

✔️ Manus тестирует расширение для популярных браузеров.

Manus запустила бета-тестирование Browser Operator — инструмента, который выводит ИИ-агентов из облачных песочниц в рабочую среду пользователя. Расширение, доступное для Chrome и Edge, позволяет автоматизировать действия в сервисах, требующих сложной авторизации (CRM, закрытые аналитические платформы), используя уже активные локальные сессии.

Через коннектор «My Browser» агент получает доступ к нужным вкладкам, а пользователь может в реальном времени наблюдать за его действиями, сохраняя контроль над безопасностью. На данный момент доступ открыт для подписчиков тарифов Pro, Plus и Team.
manus.im

✔️ xAI построит в Саудовской Аравии дата-центр на 500 МВт.

Компания Илона Маска объединилась с саудовской Humain и Nvidia для создания масштабного вычислительного хаба. Проект мощностью 500 мегаватт позволит разместить десятки тысяч GPU для тренировки и инференса следующих поколений моделей Grok.

Для xAI это стратегический шаг: собственный хаб за пределами США позволяет снизить зависимость от аренды облачных мощностей у прямых конкурентов. Структура сделки такая: Nvidia поставляет GPU, за саудитами - земля и финансирование, а xAI получает присутствие на Ближнем Востоке.
bloomberg.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5834🥰6🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
На AI Journey робот вызвал Путина на танцевальный баттл

Сбер показал антропоморфного робота Грина со встроенным ИИ. Разработке доверили самое ценное — танец перед президентом, и он не подвел.

ai_machinelearning_big_data
😁148🔥32🙈23🥰18🤣188🤔8🤬8👍4🕊3🌚3
⚡️ Команда Google Research представила технологию живого перевода речи в речь, которая позволяет говорить на одном языке и почти мгновенно слышать перевод на другом.

Раньше процесс проходил через три этапа: распознавание речи, перевод текста и синтез новой речи, из-за чего задержка могла достигать десятков секунд.

Исследователи оптимизировали весь конвейер, сделали обработку более устойчивой и сократили время реакции. Перевод звучит естественнее, меньше «подправляется» в реальном времени, а паузы стали значительно короче.

Технология приближает момент, когда люди смогут свободно общаться, даже если не знают языка собеседника.

https://research.google/blog/real-time-speech-to-speech-translation

@ai_machinelearning_big_data

#Google #AI #Translation #SpeechToSpeech #GoogleResearch
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
97👍43🔥36🥰3😁2👻2
Если сотрудник случайно удалил базу данных в рабочей среде, серверную затопило или вашу систему атаковал вирус-шифровальщик — это может привести к непоправимой потере данных. А всех пострадавших — к мысли, что нужно было сделать резервную копию…

✖️ В подобной ситуации восстановить данные может быть невозможно. 25 ноября в 11.00 MTC Web Services проведет вебинар, где эксперты расскажут, как правильно и эффективно создавать и хранить резервные копии.

На вебинаре расскажем:

🔴Каких неприятностей поможет избежать резервное копирование

🔴Базовые правила настройки бэкапов: полезные и вредные советы

🔴Инструменты и нюансы выбора сервисов для резервного копирования

🔴Где надёжнее всего хранить резервные копии: локально или в облаке

Для кого этот вебинар?

➡️Руководители компаний
Не потеряете важные данные и узнаете, сколько можно сэкономить на восстановлении

➡️Руководители ИТ-отделов
Найдёте сервисы для резервного копирования, которые не ударят по бюджету

➡️ИТ-специалисты
Узнаете, как настраивать регулярные бэкапы: в облаке и локальных хранилищах

Регистрируйтесь и приходите!
Please open Telegram to view this post
VIEW IN TELEGRAM
😁148👍4🥰2🤣2👌1
💡 DeepSeek выложили новый open-source проект — LPLB.

Это экспериментальный балансировщик нагрузки для моделей Mixture-of-Experts (MoE).

В репозитории описано, как система:
• динамически перераспределяет экспертов, опираясь на статистику нагрузки;
• создаёт реплики с учётом топологии кластера;
• решает оптимальное распределение токенов по экспертам через LP-решатель, работающий прямо на GPU (cuSolverDx + cuBLASDx);
• использует метрики загрузки, полученные вручную, через torch.distributed или через буферы Deep-EP.

Гайд показывает, как может выглядеть умный и точный балансировщик для больших MoE-архитектур.

GitHub: https://github.com/deepseek-ai/LPLB

ai_machinelearning_big_data

#DeepSeek #LPLB #MoE #AIInfrastructure #OpenSource
35🔥21👍16😁2🥰1🙉1
Please open Telegram to view this post
VIEW IN TELEGRAM
42🔥16👍12😨3🤬1
ML-модели не работают без правильно подготовленных данных.

Качество данных определяет качество моделей. Но что делать, когда пайплайны ломаются, а данные из разных источников приходят с расхождениями? Пока одна часть команды занимается ETL, другая — ищет причины артефактов в обучении моделей.

✔️ В таких ситуациях может пригодиться бот-генератор оправданий.
Он предлагает нестандартные объяснения, почему данные не готовы для обучения — от шуток про "несходящиеся градиенты" до "конфликта фичей".

Когда в следующий раз ваш feature store будет выглядеть как поле боя — загляните к боту. Его объяснения могут оказаться правдоподобнее ваших. Сгенерируйте несколько вариантов и поделитесь с командой — это поможет найти нестандартный подход к решению проблемы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿2012🔥8👍5😭3😁2
⚡️ Ai2 представила Olmo 3 - новую линейку полностью открытых моделей (7B и 32B), которые по качеству догоняют лидеров рынка.

Главное:
• 32B base - сильная base-модель, которая работает на уровне Qwen 2.5 и опережает на ряде бенчмарков Google Gemma 3.
• 7B instruct и 7B reasoning - лучшие среди западных моделей
• 32B Think - полностью открытая 32B-модель для сложных рассуждений (почти на уровне Qwen 3 8B/32B)

Все данные, код, чекпоинты в открытом доступе.

Olmo 3 32B - закрыла важный пробел, так как у Qwen нет открытой 32B base-версии.

32B спокойно запускаестя на одной 80GB-GPU или даже на мощном ноутбуке.

🟠Paper: https://allenai.org/papers/olmo3
🟠Artifacts: https://huggingface.co/collections/allenai/olmo-3
🟠Demo: https://playground.allenai.org
🟠Blog: https://allenai.org/blog/olmo3

@ai_machinelearning_big_data

#Olmo #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
27🔥13👍9🥰9🦄2😁1
2025/11/21 04:20:45
Back to Top
HTML Embed Code: