Telegram Web
🖥 OpenAi представлют новые модели o-серии (o3 и o4-mini)

OpenAI утверждает, что эти модели способны генерировать новые и полезные идеи.

Обе будут добавлены с сегодняшнего дня в ChatGPT и API.

Впервые модели рассуждений могут использовать и комбинировать все инструменты ChatGPT, включая веб-поиск, Python, анализ изображений, работу с файлами и генерацию изображений.

Модель o3 установила новый рекорд на AIME 2025 с точностью 98.4%.

А вот o4-mini, набрала 99.5% — лучший результат среди всех моделей.

На Codeforces модели набирают более 2700 баллов, что помещает их в число 200 лучших программистов в мире!

На Humanity Last Exam её показатели находятся на уровне флагманской модели Deep Research.

API — о3 сильно дешевле о1: 10/40$ вместо 15/60$, а o4-mini будет доступна для БЕСПЛАТНЫХ пользователей

С помощью внутренних инструментов модель также умеет рассуждать и работать с изображениями (например, использовать Python для их преобразования).

Эти способности к рассуждению достигнуты благодаря масштабированию как во время обучения, так и во время инференса.

Трансляция: https://www.youtube.com/watch?v=sq8GBPUb3rk

@ai_machinelearning_big_data

#openai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5322🔥14😁6🌭2🤷2
🚀 Codex CLI

"Модели o3 и o4-mini настолько сильны в программировании, что мы решили упростить их использование и выпустить новый продукт"" — Codex CLI - написал в своем аккаунт Альтман

💻 Codex CLI — это мощный программирующий агент, который работает локально на вашем компьютере.

- Чат-ориентированная разработка: Позволяет взаимодействовать с вашим репозиторием через диалоговый интерфейс.​

- Выполнение кода: Способен запускать код, манипулировать файлами и выполнять итерации прямо в терминале.​

- Интеграция с системами контроля версий: Обеспечивает работу под управлением систем контроля версий, таких как Git.​

🌟 Полностью open source и уже доступен для скачивания!

npm install -g @openai/codex

https://github.com/openai/codex

@ai_machinelearning_big_data

#AI #OpenSource #CodexCLI #Coding #LLM #DevTools
171👍44🔥7🥰6🗿6😁4🤔4
🔥 Classifier Factory от Mistral

Classifier Factory — это интуитивно понятное руководство для создания и обучения собственных моделей классификации на базе компактных LLM от Mistral AI.

С его помощью — как через веб‑интерфейс La Plateforme, так и через API — можно быстро разворачивать решения для модерации контента, детекции намерений, анализа тональности, кластеризации данных, обнаружения мошенничества, фильтрации спама, рекомендательных систем и других задач

Classifier Factory поможет упростить весь цикл работы с custom‑классификаторами: от подготовки данных до развёртывания готовой модели в продакшене.

🔜 Docs
🔜Cookbook: Moderation Classifier
🔜Cookbook: Intent Classification
🔜Cookbook: Classification of Food

@ai_machinelearning_big_data


#Mistral #api
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49🔥2814😁7
✔️ OpenAI ведет переговоры о приобретении Windsurf.

OpenAI ведет переговоры о приобретении компании Windsurf, ИИ-инструмента для программирования, ранее известного как Codeium, за 3 млрд. долларов. Если сделка будет завершена, это станет крупнейшей покупкой для OpenAI на сегодняшний день и укрепит ее позиции на конкурентном рынке ИИ-кодинга.
bloomberg.com

✔️ Microsoft опубликовала веса крупнейшей 1-битной модели.

Microsoft представила BitNet b1.58 2B4T — модель с квантованием весов до трех значений (-1, 0, 1). Она может работать на CPU и доступна на HuggingFace под MIT-лицензией. Это первая модель такого типа с 2 млрд. параметров, обученная на 4 трлн. токенов (примерно 33 млн книг).

По заявлению разработчиков, BitNet превосходит модели Lllama, Google и Alibaba в тестах на решение математических задач (GSM8K) и проверку логики (PIQA). При этом скорость инференса вдвое выше, а память расходуется экономнее.

Но есть нюанс: для работы требуется фреймворк bitnet.cpp, который пока не поддерживает GPU.
techcrunch.com

✔️ Huawei презентовала серверную ИИ-систему CloudMatrix.

Huawei представила новую стоечную систему AI CloudMatrix 384, которая должна конкурировать с GB200 NVL72 от Nvidia. Хотя CloudMatrix 384 менее энергоэффективна, а ее производительность в 2,6 раза ниже в показателе FLOP на ватт, это не считается ограничивающим фактором в Китае, поскольку страна располагает достаточными энергетическими ресурсами.

Система использует ускоритель Huawei Ascend 910C AI и позиционируется как мощное внутреннее решение в китайском технологическом ландшафте. Появление CloudMatrix 384 - результат продолжающейся технологической войны между США и Китаем.
scmp.com

✔️ Дрон, управляемый ИИ впервые победил чемпионов-людей в гоночных соревнованиях.

Автономный дрон от Делфтского университета выиграл чемпионат A2RL, а затем в напряжённом турнире одолел 3 экс-чемпионов DCL, развив скорость до 95,8 км/ч на сложной трассе.

Ключевым аспектом победы стала нейросеть, которая управляла моторами напрямую, минуя традиционные контроллеры. Технология, которая была разработана ESA для космических аппаратов, позволила дрону работать с ограниченными ресурсами — всего одна камера и минимум вычислений. Как и люди, ИИ учился методом проб и ошибок, что помогло приблизиться к физическим пределам системы.
techxplore.com

✔️ MIT разработал метод машинного обучения для решения сложных логистических задач.

Исследователи MIT разработали метод L-RHO, объединяющий машинное обучение с традиционными методами оптимизации в задачах планирования. Система учится «замораживать» повторяющиеся переменные в подзадачах, сокращая время решения на 54% и повышая качество результатов до 21%.

Технология анализирует данные предыдущих решений, выделяя элементы, которые не требуют пересчёта. Оставшиеся переменные обрабатываются стандартным решателем, ускоряя процесс без потери точности. Метод уже проверен на реальных сценариях, включая сбои оборудования и перегрузки, показав стабильную эффективность.

L-RHO адаптивен к изменяющимся условиям: от расписания поездов до планирования медперсонала. В планах — интеграция метода в задачи управления запасами и маршрутизацией транспорта.
news.mit.edu

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍6120🔥14🤔2
🔥 ArXiv MCP Server

arxiv‑mcp‑server — это MCP‑сервер (открытый протокол Anthropic для обмена сообщениями и инструментами между LLM‑клиентом и сервером.), который «оборачивает» arXiv.org в набор инструментов, доступных ИИ‑ассистентам (Claude Desktop, ChatGPT‑плагины, собственные агентовые фреймворки).

Благодаря этому ассистент может искать, скачивать и читать научные статьи, а также запускать готовые промпты для глубокого анализа работы, все в одном чате. 

Ключевые возможности
- Поиск статей search_papers — фильтры по запросу, диапазону дат, категориям.
🟢 Загрузка статьи download_paper — хранит PDF/метаданные локально, чтобы не дергать arXiv повторно.
🟢Список локальных статей list_papers.
🟢Чтение содержимого read_paper — отдаёт текст постранично.
🟢Готовые исследовательские промпты — например, deep-paper-analysis, который строит полное ревью (summary, методология, импликации, дальнейшая работа и т.д.). 

🌟 Установка:

Для установки и запуска сервера можно использовать следующие команды:​


git clone https://github.com/blazickjp/arxiv-mcp-server.git
cd arxiv-mcp-server
uv venv
source .venv/bin/activate
uv pip install -e ".[test]"
python -m arxiv_mcp_server



Github

#arXiv #llm #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥2816❤‍🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🌟 FramePack  — это надстройка над любым «next‑frame prediction» видеогенератором, которая превращает работу с длинными роликами в задачу постоянной, а не растущей стоимости

Модель поэтапно предсказывает следующий кадр или блок кадров, обеспечивая плавную и контролируемую генерацию. При этом FramePack позволяет создавать видео длительностью более 60 секунд.

Вместо хранения полного контекста он распределяет между кадрами разное число патч‑токенов и поддерживает общее количество токенов постоянным. Благодаря этому нагрузка остаётся O(1) относительно длины ролика — даже 13 B‑модель может генерировать тысячи кадров на обычной GPU.

Распределение «места» между кадрами задаётся расписанием (FramePack Scheduling): линейным, экспоненциальным, равномерным или кастомным. Например, можно сделать первый кадр самым детальным для задач image‑to‑video или отдавать приоритет последним кадрам.

Дополнительно применяется двусторонняя sampling‑схема — генерация кадров «вперёд‑назад»: модель чередует прямой и обратный проход по временной оси, что минимизирует накопление ошибок и сохраняет качество даже на полноценных минутных видео.

🔥Особенности:
🟢Заявленный минимальный объём GPU: всего 6 GB для генерации 1‑минутного видео @ 30 fps (1800 кадров) на 13 B‑модели — запускается даже на ноутбучных GPU.
.🟢Скорость генерации (RTX 4090):
~2.5 с/кадр без оптимизаций
~1.5 с/кадр с TeaCache
🟢Контекст фиксированной длины: накладные расходы (память и время) не растут при увеличении числа кадров — сложность остаётся O(1) по длине видео.

Эти метрики делают FramePack одним из самых практичных решений для генерации длинных видео даже на относительно слабом железе.

🔜Project Pagehttps://lllyasviel.github.io/frame_pack_gitpage/
🔜Paperhttps://lllyasviel.github.io/frame_pack_gitpage/pack.pdf
🔜Codehttps://github.com/lllyasviel/FramePack

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5319🔥19
🔥 Wan2.1‑FLF2V 14B — это первая в серии Wan модель генерации видео, которая работает по принципу «First‑Last‑Frame»: достаточно задать начальный и конечный кадр, чтобы сгенерировать полноценный плавный плавный ролик.

✔️ Главное
🟢 Открытые код и веса.

🟢Полный контроль над сюжетом и композицией видео.

🟢 Точное следование инструкциям: модель умеет очень чётко.
«понимать» промпты и визуальные референсы.

🟢Плавные переходы с учётом физики: кадры переходят друг в друга без рывков, с реалистичной трактовкой законов движения и освещения.

🟢 Качество 720 p: готовый не требует дополнительной пост‑обработки.

🔜GitHub: https://github.com/Wan-Video/Wan2.1
🔜Hugging Face: https://huggingface.co/Wan-AI/Wan2.1-FLF2V-14B-720P
🔜Modelscope: https://modelscope.cn/models/Wan-AI/Wan2.1-FLF2V-14B-720P

@ai_machinelearning_big_data

#wan #AIGC #alart
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍74🔥3612🤨6
🔥 Google только что выпустил Gemini 2.5 Flash

Ключевые особенности:

В 25 раз дешевле, чем Claude Sonnet 3.7 и Grok-3 и в 5–10 раз дешевле, чем Gemini‑2.5‑Pro.

Новая функция динамического «размышления» над сложными задачами.

Настраиваемый «бюджет мышления» (вы сами решаете, сколько токенов выделить на этап «размышлений»)

Делит #2, место на Арене вместе с GPT 4.5 Preview и Grok‑3.

🏆 Делит первое место в задачах Hard Prompts, Coding и Longer Query
💠 Входит в топ‑4 по всем категориям

Gemini Flash 2.5 — это лучшее соотношение цена/производительность. Google снова на высоте.

Бегом тестить

@ai_machinelearning_big_data

#Gemini
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
102👍64🔥28👏6🤔4😁1
✔️ Tesla показала суперкомпьютер Dojo.

Tesla опубликовала изображения своего суперкомпьютера Dojo - системы, созданной на заказ для обучения ИИ-моделей проекта полного автономного вождения (FSD). Фото были опубликованы 17 апреля не случайно - это совпало с недавним заявлением Илона Маска о расширении крупного вычислительного кластера в Giga Texas. Dojo полностью работает на чипах, разработанных Tesla.
TeslaAI в Х (ex-Twitter)

✔️ Chatbot Arena трансформируется в отдельную компанию Arena Intelligence Inc.

Популярная платформа для оценки ИИ-моделей Chatbot Arena, которую используют ведущие лаборатории ИИ, официально становится компанией Arena Intelligence Inc. Это позволит команде расширить ресурсы для развития сервиса, сохранив нейтралитет тестирования. Проект, запущенный в 2023 году исследователями из UC Berkeley, давно стал ключевым инструментом для сравнения языковых моделей — его рейтинги влияют на маркетинг и развитие ИИ.

До сих пор Chatbot Arena работала на грантах и спонсорской поддержке от Kaggle, Google, Andreessen Horowitz и Together AI.
bloomberg.com

✔️ Anthropic инвестирует 1 млн. долларов в Goodfire.

Anthropic впервые инвестировала в стартап, поддержав Goodfire. Инвестиционный раунд, возглавляемый Menlo Ventures, собрал в общей сложности 50 миллионов долларов, а Anthropic внесла 1 миллион долларов.

Goodfire специализируется на механистической интерпретации - методе, который помогает разработчикам понять, как работают системы ИИ, причем методы Goodfire считается более продвинутым, чем существующие инструменты, используемые Anthropic.
theinformation.com

✔️ Википедия выпустила датасет для обучения ИИ.

Википедия представила структурированный датасет на платформе Kaggle, чтобы облегчить разработчикам ИИ доступ к данным и снизить нагрузку на свою инфраструктуру. Вместо парсинга сырого текста ботамы, теперь доступны JSON-файлы на английском и французском языках с разделами статей, краткими описаниями, инфобоксами и ссылками на изображения.

Датасет оптимизирован для ML-задач: файнтюна моделей, анализа и тестирования. Это часть стратегии Викимедии, которая не только экономит ресурсы Википедии, но и упрощает работу с контентом — вместо борьбы с ботами разработчики получают готовый инструмент.
enterprise.wikimedia.com

✔️ Количество полностью сгенерированной ИИ-музыки выросло в 2 раза на платформе Deezer.

Deezer, французский музыкальный стриминговый сервис, сообщил, что около 18 % песен, загружаемых на его платформу, создаются ИИ. Этот показатель непрерывно растет: ежедневно на платформу загружается около 20 000 композиций, созданных искусственным интеллектом, что почти вдвое больше, чем 4 месяца назад.

Deezer внедрил инструмент обнаружения ИИ для выявления музыки, созданной с помощью Suno и Udio в январе 2025 года, когда ежедневное количество загружаемых песен, созданных ИИ, составляло около 10 000.
billboard.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6324🔥14🙈6
15 бесплатных книг по Data Science (часть 1)*

1. *Veridical Data Science*
👩‍🔬 Авторы: Bin Yu & Rebecca L. Barter
Описание: Введение в науку о данных (data science): как область возникла, как она развивается и какую роль играет в современном мире.
🔗 https://vdsbook.com/

2. *Data Science: Theories, Models, Algorithms, and Analytics*
📘 Автор: Sanjiv Ranjan Das
Описание: Учебник по DS с упором на алгоритмы и аналитику.
🔗 https://srdas.github.io/Papers/DSA_Book.pdf

3. *Think Python 3E*
🐍 Автор: Allen B. Downey
Описание: Современное введение в Python с нуля.
🔗 https://greenteapress.com/wp/think-python-3rd-edition/

4. *Python Data Science Handbook*
📊 Автор: Jake VanderPlas

Описание: Практика работы с NumPy, pandas, sklearn и визуализациями.
🔗 https://jakevdp.github.io/PythonDataScienceHandbook/

5. *R for Data Science*
📈 Авторы: Hadley Wickham и др.
Описание: Современный подход к анализу данных в R.
🔗 https://r4ds.hadley.nz/

6. *Think Stats 3E*
📐 Автор: Allen B. Downey
Описание: Статистика через Python и практику.
🔗 https://allendowney.github.io/ThinkStats/

7. *Statistics and Prediction Algorithms Through Case Studies*
📙 Автор: Rafael A. Irizarry
Описание: Кейсы по статистике и прогнозированию с кодом на R.
🔗 https://rafalab.github.io/dsbook/

8. *Bayesian Methods for Hackers*
🧠 Автор: Cameron Davidson-Pilon
Описание: Визуальное введение в байесовский анализ с PyMC.
🔗 https://github.com/CamDavidsonPilon/Probabilistic-Programming-and-Bayesian-Methods-for-Hackers

9. *Think Bayes 2E*
🔢 Автор: Allen B. Downey
Описание: Пошаговый байесовский подход на Python.
🔗 https://allendowney.github.io/ThinkBayes2/

10. *Data Science at the Command Line*
💻 Автор: Jeroen Janssens
Описание: Unix-инструменты как основа для анализа данных.
🔗 https://datascienceatthecommandline.com/

🔜 Математика для Data Scientist
11. Теория вероятностей
👩‍🔬 Автор: Чернова Н. И.
Описание: Понятное введение в теорию вероятностей, основа для изучения математической статистики.
🔗 http://www.nsu.ru/mmf/tvims/chernova/tv/tv_nsu07.pdf

12. * Математическая статистика*
👩‍🔬 Автор: Чернова Н. И.
Описание: Продолжение курса по теории вероятностей (НГУ), покрывающее основы математической статистики: оценки параметров, проверка гипотез, регрессионный анализ.
🔗 http://www.nsu.ru/mmf/tvims/chernova/ms/ms_nsu07.pdf

13. * Курс дифференциального и интегрального исчисления (Том 1)*
👩‍🔬 Автор: Фихтенгольц Г. М.
Описание: Фундаментальный и классический учебник по основам математического анализа.
🔗 http://math.ru/lib/book/djvu/fichtengolz/f_1.djvu

14.*Векторные исчисления для инженеров*
👩‍🔬 Автор:Jeffrey R. Chasnov
🔗 http://math.ru/lib/book/djvu/fichtengolz/f_1.djvu

15 .*Theory—Theoretical & Mathematical Foundations ;
👩‍🔬Daniel A. Roberts, Sho Yaida, Boris Hanin
Описание: Эта книга предлагает теоретический подход к анализу глубинных нейросетей с практической значимостью
🔗https://arxiv.org/abs/2106.10165

📘 Еще больше книг здесь

Сохраняйте себе, чтобы не потерять

@ai_machinelearning_big_data

#books #opensource #freebooks
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6223🔥19😁1
🌟 Школа аналитиков данных от Big Data MWS признана лучшим образовательным проектом в области Data Science

О победе в премии «Data Fusion Awards 2025» в номинации «Data Fusion в образовании» сообщает МТС. Награда досталась проекту «Школа аналитиков данных», который уже три года успешно готовит специалистов в сфере Data Science.

Программа включает углубленное изучение Python, основы классического машинного обучения и методы создания ML-моделей для различных отраслей: геоаналитики, рекламы и финтеха. Обучение проходит через онлайн-вебинары, домашние задания и итоговые проекты под руководством экспертов центра Big Data MWS. Курс бесплатен и открыт для всех — от школьников до опытных IT-специалистов.

За 10 месяцев обучения студенты получают практические навыки и теоретические знания уровня Junior, необходимые для успешного старта карьеры. На третий поток поступило почти 5 тысяч заявок, а многие выпускники уже работают в Big Data MWS.

@ai_machinelearning_big_data
😁34🤣20👍1412🔥7
🌟 InstantCharacter — новый фреймворк от Hunyuan (Tencent) для стилизации любых персонажей.

Традиционные методы файн‑тюнинга моделей под конкретный образ персонажа обычно либо:
💬 деградируют качество генерации при сохранении идентичности (UNet‑подходы),
💬 либо требуют отдельного, ресурсоёмкого обучения для каждого персонажа

InstantCharacter решает обе проблемы сразу:
Высокое качество
- Построен на базе DiT-моделей, которые по качеству превосходят классические UNet‑архитектуры.

🔥 Гибкая персонализация.
Китайцы сделали адаптер с каскадными энкодерами‑трансформерами, который модулирует признаки персонажа и взаимодействует с латентным пространством DiT.

✔️ Масштабируемость
Фреймворк обучен и на огромном датасете - более 10 миллионов примеров, поделённых на парные и непарные (текст+изображение) примеры.

Трёхэтапное обучение:
🟢Предварительное обучение на низком разрешении без пар.
🟢Дообучениена парных примерах для консистентности.
🟢Финальная донастройка для текстового управления генерациями.

Результаты:
🟢на демке выдает высокое качество, персонажи плавно переходят в различыне стили и меняют позы.
🟢высокая консистентность и сохранение мелких деталей персонажа.
🟢легко управляется промптами без потери качества.

В сравнении с предыдущими подходами InstantCharacter задает высокую планку качества в задачах character-driven image generation.

🔜Попробуйте демку
🔜Project
🔜Аrxiv
🔜Github

@ai_machinelearning_big_data

#Hunyuan #Tencent #InstantCharacter
#OpenSource #AI #CharacterCustomization
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5925🔥16
2025/07/11 21:56:30
Back to Top
HTML Embed Code: