🔍 Как избежать хаоса в общих ML-утилитах?
Типичная ситуация в data science: несколько команд используют один и тот же код, но из-за разных репозиториев и релизных циклов версии утилит быстро расходятся. Обновления одной команды не доходят до других, баги фиксируются выборочно, а со временем код и вовсе начинает жить своей жизнью в каждом проекте.
Git submodules решают эту проблему, позволяя встраивать общий репозиторий как подкаталог в другие проекты. Вместо копирования кода — ссылка на конкретный коммит. Так, даже в условиях разных уровней безопасности или частых обновлений, все команды работают с одинаковой версией утилит.
Но при этом подход не идеален: требует аккуратности в работе, но для быстро меняющегося ML-кода — это часто лучшее решение, чем классические пакеты Python. Главное — все изменения остаются прозрачными, а утилиты можно сразу отлаживать в контексте проекта.
🔗 Ссылка - *клик*
@machinelearning_ru
Типичная ситуация в data science: несколько команд используют один и тот же код, но из-за разных репозиториев и релизных циклов версии утилит быстро расходятся. Обновления одной команды не доходят до других, баги фиксируются выборочно, а со временем код и вовсе начинает жить своей жизнью в каждом проекте.
Git submodules решают эту проблему, позволяя встраивать общий репозиторий как подкаталог в другие проекты. Вместо копирования кода — ссылка на конкретный коммит. Так, даже в условиях разных уровней безопасности или частых обновлений, все команды работают с одинаковой версией утилит.
Но при этом подход не идеален: требует аккуратности в работе, но для быстро меняющегося ML-кода — это часто лучшее решение, чем классические пакеты Python. Главное — все изменения остаются прозрачными, а утилиты можно сразу отлаживать в контексте проекта.
🔗 Ссылка - *клик*
@machinelearning_ru
❤6🔥1🥰1
🗺️ 4DGS-SLAM — SLAM для динамичных сцен на базе Gaussian Splatting
Обычные SLAM-методы с Gaussian Splatting работают только в статичных сценах.
4DGS-SLAM идёт дальше — он строит карту и отслеживает камеру в реальном времени, не удаляя движущиеся объекты, а моделируя их вместе со статичными.
🔥 Как это работает
- Работает с последовательностями RGB-D с динамикой.
- Делит сцену на статические и динамические Gaussian-примитивы.
- Отслеживает движение объектов через MLP и 2D optical flow.
- Генерирует motion masks для точной сегментации.
https://github.com/yanyan-li/4DGS-SLAM
Обычные SLAM-методы с Gaussian Splatting работают только в статичных сценах.
4DGS-SLAM идёт дальше — он строит карту и отслеживает камеру в реальном времени, не удаляя движущиеся объекты, а моделируя их вместе со статичными.
🔥 Как это работает
- Работает с последовательностями RGB-D с динамикой.
- Делит сцену на статические и динамические Gaussian-примитивы.
- Отслеживает движение объектов через MLP и 2D optical flow.
- Генерирует motion masks для точной сегментации.
https://github.com/yanyan-li/4DGS-SLAM
🔥3❤1👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Жаркий момент на интервью с CEO OpenAI.
Ведущий спросил Сэма Альтмана, что он думает о посте Илона Маска «OpenAI сожрёт Microsoft» и ответе Сатьи Наделлы.
Альтман: *«Эмм… я не так уж много о нём думаю».*
Когда ведущий уточнил, что речь о том, что в долгосрочной перспективе OpenAI получит больше власти, влияния и рычагов, чем Microsoft, Сэм ответил:
*«Я не знаю, что это значит. А вы знаете?»*
После пояснения ведущего Альтман лишь добавил:
*«Он просто весь день твитит о том, какая OpenAI плохая, что у нас плохая модель и мы не будем хорошей компанией».*
Вопрос о власти над Microsoft так и остался без ответа.
Ведущий спросил Сэма Альтмана, что он думает о посте Илона Маска «OpenAI сожрёт Microsoft» и ответе Сатьи Наделлы.
Альтман: *«Эмм… я не так уж много о нём думаю».*
Когда ведущий уточнил, что речь о том, что в долгосрочной перспективе OpenAI получит больше власти, влияния и рычагов, чем Microsoft, Сэм ответил:
*«Я не знаю, что это значит. А вы знаете?»*
После пояснения ведущего Альтман лишь добавил:
*«Он просто весь день твитит о том, какая OpenAI плохая, что у нас плохая модель и мы не будем хорошей компанией».*
Вопрос о власти над Microsoft так и остался без ответа.
👍4❤2🥰2
Пилот дрона — это не игрушка, а профессия с реальными задачами и деньгами.
Где нужны специалисты уже сегодня:
— Инспекции мостов и дорог
— Мониторинг лесов, парков и водохранилищ
— Съёмки для фильмов и рекламы
— Геодезия и кадастр
— Контроль за строительством
— Поиск людей после ЧС
— Анализ состояния объектов ЖКХ
— Сбор данных для цифровых моделей городов
📊 В России — острый дефицит специалистов. Каждый новый проект ищет своих «дроноводов».
Освойте новую профессию на онлайн-курсе Skillbox и получите шанс пройти стажировку в «Геоскане» — лидере отрасли.
Получите скидку до 60% + 3 курса в подарок!
👉 Подробнее по ссылке: https://goo.su/pgzSO?erid=2VtzqvJkepH
Реклама. ЧОУ ДПО «Образовательные технологии «Скилбокс (Коробка навыков)», ИНН: 9704088880
Где нужны специалисты уже сегодня:
— Инспекции мостов и дорог
— Мониторинг лесов, парков и водохранилищ
— Съёмки для фильмов и рекламы
— Геодезия и кадастр
— Контроль за строительством
— Поиск людей после ЧС
— Анализ состояния объектов ЖКХ
— Сбор данных для цифровых моделей городов
📊 В России — острый дефицит специалистов. Каждый новый проект ищет своих «дроноводов».
Освойте новую профессию на онлайн-курсе Skillbox и получите шанс пройти стажировку в «Геоскане» — лидере отрасли.
Получите скидку до 60% + 3 курса в подарок!
👉 Подробнее по ссылке: https://goo.su/pgzSO?erid=2VtzqvJkepH
Реклама. ЧОУ ДПО «Образовательные технологии «Скилбокс (Коробка навыков)», ИНН: 9704088880
😁8👎4🤔3❤2👍2🔥1🤬1
📄 MLflow GenAI — автоматическая оценка качества RAG-систем. Проект расширяет возможности платформы MLflow для оценки генеративных AI-моделей. Он автоматически проверяет релевантность ответов и их соответствие исходному контексту, что особенно полезно для RAG-систем. Интеграция с Ollama и LangChain позволяет тестировать локальные модели, включая Llama3.
Инструмент использует GPT-4 в качестве судьи для оценки ответов, генерируя метрики от 1 до 5. Результаты отображаются в дашборде MLflow, где можно сравнивать разные версии модели. Это упрощает процесс улучшения AI-систем без ручной проверки.
🔗 Ссылка - *клик*
@machinelearning_ru
Инструмент использует GPT-4 в качестве судьи для оценки ответов, генерируя метрики от 1 до 5. Результаты отображаются в дашборде MLflow, где можно сравнивать разные версии модели. Это упрощает процесс улучшения AI-систем без ручной проверки.
🔗 Ссылка - *клик*
@machinelearning_ru
❤3👍2
Принцип простой: описываете, что хотите получить, нажимаете Optimize — GPT-5 анализирует запрос и выдаёт готовый детализированный промт. Работает бесплатно.
Инструмент может упростить работу с любыми нейросетями, особенно если у вас нет опыта в составлении промтов.
Готовый вы можете сразу попробовать в @Chatgpturbobot
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Что умеет
- SimpleQA: 91% точности, чуть выше Perplexity Pro — и всё это полностью локально.
- Сценарии: быстрый веб-поиск и глубокое исследование (Deep Research).
Из чего сделана
- Базируется на Qwen3-4B-Thinking (контекст до 256k), дообучена в Jan на рассуждение и работу с инструментами.
Где запускать
- Jan, llama.cpp или vLLM.
Как включить поиск в Jan
- Settings → Experimental Features → On
- Settings → MCP Servers → включите поисковый MCP (например, Serper)
Модели
- Jan-v1-4B: https://huggingface.co/janhq/Jan-v1-4B
- Jan-v1-4B-GGUF: https://huggingface.co/janhq/Jan-v1-4B-GGUF
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤2👍2
🎯 Marco-Voice — единый фреймворк для выразительного синтеза речи с клонированием голоса 🎧
🚀 Ключевые возможности:
🔥 Новые методы: разделение признаков говорящего и эмоций, интеграция ротационных эмбеддингов эмоций
🔥 Новый бенчмарк: датасет эмоциональной речи (10 часов, 7 категорий эмоций) + 100 промптов для обучения и оценки
☄️ Всё в открытом доступе (код, данные, отчёт — и будет ещё больше):
💌 Код: https://github.com/AIDC-AI/Marco-Voice
💌 Данные: https://huggingface.co/datasets/AIDC-AI/CSEMOTIONS
💌 Отчёт: https://huggingface.co/papers/2508.02038
🚀 Ключевые возможности:
🔥 Новые методы: разделение признаков говорящего и эмоций, интеграция ротационных эмбеддингов эмоций
🔥 Новый бенчмарк: датасет эмоциональной речи (10 часов, 7 категорий эмоций) + 100 промптов для обучения и оценки
☄️ Всё в открытом доступе (код, данные, отчёт — и будет ещё больше):
💌 Код: https://github.com/AIDC-AI/Marco-Voice
💌 Данные: https://huggingface.co/datasets/AIDC-AI/CSEMOTIONS
💌 Отчёт: https://huggingface.co/papers/2508.02038
GitHub
GitHub - AIDC-AI/Marco-Voice: A Unified Framework for Expressive Speech Synthesis with Voice Cloning
A Unified Framework for Expressive Speech Synthesis with Voice Cloning - AIDC-AI/Marco-Voice
❤3👍2🔥2🤩1
До конца регистрации на хакатон от The Experts: School of Quants осталось всего 4 дня!
Приглашаем вас принять участие в открытом хакатоне от School of Quants — это шанс продемонстрировать свои навыки, получить ценный практический опыт и существенно увеличить свои шансы на поступление в годовую программу.
School of Quants — ведущая образовательная платформа в области количественных финансов от The Experts, которая уже более 10 лет помогает молодым специалистам строить карьеру в сфере финансов и инвестиций.
Что в задании?
В этом году участникам предстоит решить задачу по прогнозированию цены закрытия акции на 13 торговых дней вперёд. Вы можете использовать любые подходы и инструменты: от эконометрических моделей и методов машинного обучения до обработки и генерации признаков (feature engineering), а также любых внешних и внутренних данных, если они обоснованы.
Почему важно участвовать?
- Преимущества при поступлении на флагманскую годовую программу School of Quants
- Возможность попасть на трек Top Talents 2025/26 со скидкой до 95% на обучение
- Приоритет при выборе наставников и менторов в рамках программы
- Скидки на трек EXPERT и специальные условия на другие курсы
- Преференции при отборе на стажировки и позиции в компаниях-партнёрах
- Fast track для кандидатов в партнёрские компании
- Возможность проявить себя перед потенциальными работодателями
Ключевые даты:
- Регистрация: до 23:55 Мск 15 августа
- Сдача финального решения: до 23:55 Мск 22 августа
- Рассылка дополнительного задания для финалистов хакатона: до 31 августа
- Объявление победителя и призеров: 5 сентября
- Церемония награждения: 7 сентября
Успевайте зарегистрироваться по ссылке.
Большинство преимуществ хакатона доступны для тех, кто планирует поступать на годовую программу School of Quants. Если хотите подробнее узнать о формате, возможностях и условиях — переходите по ссылке.
Приглашаем вас принять участие в открытом хакатоне от School of Quants — это шанс продемонстрировать свои навыки, получить ценный практический опыт и существенно увеличить свои шансы на поступление в годовую программу.
School of Quants — ведущая образовательная платформа в области количественных финансов от The Experts, которая уже более 10 лет помогает молодым специалистам строить карьеру в сфере финансов и инвестиций.
Что в задании?
В этом году участникам предстоит решить задачу по прогнозированию цены закрытия акции на 13 торговых дней вперёд. Вы можете использовать любые подходы и инструменты: от эконометрических моделей и методов машинного обучения до обработки и генерации признаков (feature engineering), а также любых внешних и внутренних данных, если они обоснованы.
Почему важно участвовать?
- Преимущества при поступлении на флагманскую годовую программу School of Quants
- Возможность попасть на трек Top Talents 2025/26 со скидкой до 95% на обучение
- Приоритет при выборе наставников и менторов в рамках программы
- Скидки на трек EXPERT и специальные условия на другие курсы
- Преференции при отборе на стажировки и позиции в компаниях-партнёрах
- Fast track для кандидатов в партнёрские компании
- Возможность проявить себя перед потенциальными работодателями
Ключевые даты:
- Регистрация: до 23:55 Мск 15 августа
- Сдача финального решения: до 23:55 Мск 22 августа
- Рассылка дополнительного задания для финалистов хакатона: до 31 августа
- Объявление победителя и призеров: 5 сентября
- Церемония награждения: 7 сентября
Успевайте зарегистрироваться по ссылке.
Большинство преимуществ хакатона доступны для тех, кто планирует поступать на годовую программу School of Quants. Если хотите подробнее узнать о формате, возможностях и условиях — переходите по ссылке.
👎2👍1
🚨 NVIDIA и AMD заплатят США 15% от выручки с чипов для Китая, чтобы получить экспортные лицензии
По условиям нового соглашения, компании смогут снова поставлять в Китай ускорители Nvidia H20 и AMD MI308, но обязаны перечислять 15% дохода от их продаж в Китае на специальный счёт правительства США.
📌 Ключевые детали:
- Мера распространяется только на H20 и MI308, продаваемые в Китае — другие чипы и страны не затронуты.
- Формально это не налог, а условие экспортной лицензии.
- При отказе или нарушении условий — лицензии могут быть отозваны, а компании оштрафованы.
- Операционно: компания получает оплату от китайского клиента → перечисляет 15% США → в отчётности это отражается как расход, уменьшая прибыль.
- Возможна корректировка цен, чтобы переложить часть затрат на покупателей.
💡 Для NVIDIA и AMD это возвращает им рынок и защищает долю от китайских конкурентов, но вызывает споры: часть американских политиков считает, что H20 всё ещё может применяться в военных целях.
Источник: ft.com/content/cd1a0729-a8ab-41e1-a4d2-8907f4c01cac
По условиям нового соглашения, компании смогут снова поставлять в Китай ускорители Nvidia H20 и AMD MI308, но обязаны перечислять 15% дохода от их продаж в Китае на специальный счёт правительства США.
📌 Ключевые детали:
- Мера распространяется только на H20 и MI308, продаваемые в Китае — другие чипы и страны не затронуты.
- Формально это не налог, а условие экспортной лицензии.
- При отказе или нарушении условий — лицензии могут быть отозваны, а компании оштрафованы.
- Операционно: компания получает оплату от китайского клиента → перечисляет 15% США → в отчётности это отражается как расход, уменьшая прибыль.
- Возможна корректировка цен, чтобы переложить часть затрат на покупателей.
💡 Для NVIDIA и AMD это возвращает им рынок и защищает долю от китайских конкурентов, но вызывает споры: часть американских политиков считает, что H20 всё ещё может применяться в военных целях.
Источник: ft.com/content/cd1a0729-a8ab-41e1-a4d2-8907f4c01cac
❤1🔥1
🚀 Отличный релиз компактной модели VLM!
LiquidA представили LFM2-VL — vision-language модели, которпя эффективно работают на всём: от смартфонов и ноутбуков до носимых и встраиваемых устройств.
Что внутри:
- Расширение системы LFM2 в мультимодальность (текст + изображения)
- Поддержка нативного разрешения до 512×512
- Модульная архитектура: language-backbone + SigLIP2 NaFlex vision encoder + лёгкий мультимодальный проектор для сжатия image tokens
- Крупные изображения разбиваются на патчи + миниатюры для контекста, что сохраняет детали и общий вид сцены
Две версии под разные задачи:
- LFM2-VL-450M (<0.5B параметров) — для ограниченных устройств
- LFM2-VL-1.6B — больше возможностей, но всё ещё подходит для single-GPU и мобильных сценариев
Обе модели позволяют настраивать лимит image tokens и количество патчей для баланса скорости и качества без повторного обучения.
Тренировка:
- 100B мультимодальных токенов из открытых и синтетических датасетов
- Поэтапное смешение текстового и визуального обучения
- На бенчмарках RealWorldQA и OCRBench — конкурентные результаты
- На GPU — до 2× быстрее аналогов
📌 Доступны на huggingface под лицензией Apache 2.0
https://www.liquid.ai/blog/lfm2-vl-efficient-vision-language-models
LiquidA представили LFM2-VL — vision-language модели, которпя эффективно работают на всём: от смартфонов и ноутбуков до носимых и встраиваемых устройств.
Что внутри:
- Расширение системы LFM2 в мультимодальность (текст + изображения)
- Поддержка нативного разрешения до 512×512
- Модульная архитектура: language-backbone + SigLIP2 NaFlex vision encoder + лёгкий мультимодальный проектор для сжатия image tokens
- Крупные изображения разбиваются на патчи + миниатюры для контекста, что сохраняет детали и общий вид сцены
Две версии под разные задачи:
- LFM2-VL-450M (<0.5B параметров) — для ограниченных устройств
- LFM2-VL-1.6B — больше возможностей, но всё ещё подходит для single-GPU и мобильных сценариев
Обе модели позволяют настраивать лимит image tokens и количество патчей для баланса скорости и качества без повторного обучения.
Тренировка:
- 100B мультимодальных токенов из открытых и синтетических датасетов
- Поэтапное смешение текстового и визуального обучения
- На бенчмарках RealWorldQA и OCRBench — конкурентные результаты
- На GPU — до 2× быстрее аналогов
📌 Доступны на huggingface под лицензией Apache 2.0
https://www.liquid.ai/blog/lfm2-vl-efficient-vision-language-models
👍4❤2
Forwarded from Machinelearning
Embedding Atlas — опенсорсный инструмент от Apple для интерактивной визуализации больших наборов векторных представлений, который позволяет не просто смотреть на облако точек, а полноценно с ним работать. И что самое приятное, он способен отрисовывать до нескольких миллионов точек благодаря реализации на WebGPU.
Embedding Atlas сам находит скопления в данных и подписывает их, позволяя мгновенно сориентироваться в общей структуре датасета. Чтобы отделить реальные кластеры от случайных выбросов, используется оценка плотности ядра с отрисовкой контуров плотности.
Решена и вечная проблема визуализаций - "каша" из перекрывающихся точек. Embedding Atlas использует технологию order-independent transparency, так что даже при большом наложении точек картинка остаётся четкой и информативной.
В инструменте есть поиск в реальном времени и нахождение ближайших соседей. Можно ввести текстовый запрос или просто кликнуть на любую точку в облаке, и Embedding Atlas мгновенно подсветит наиболее похожие на нее данные.
Еще есть интерактивный фильтр по метаданным. Например, можно выбрать на гистограмме определенный класс объектов, и визуализация тут же отфильтрует эмбединги, оставив только соответствующие ему точки.
Дает три варианта интеграции: утилиту командной строки для быстрой визуализации датафреймов, виджет для Jupyter, позволяющий встраивать атлас прямо в ноутбуки, и компонент для Streamlit, если вы создаете полноценные веб-приложения.
Этот пакет для тех, кто хочет встроить визуализацию в собственные веб-приложения. Он предоставляет готовые UI-компоненты в виде API:
Table
, EmbeddingView
, EmbeddingViewMosaic
и EmbeddingAtlas
.@ai_machinelearning_big_data
#AI #ML #Embedding #Visualisation #Apple
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩7❤3👍3
🔍 open-deep-research — лучший полностью открытый deep research-агент по версии DeepResearchBench (100 исследовательских задач уровня PhD в 22 разных областях).
📊 Лидирует в рейтинге среди open-source решений, демонстрируя выдающуюся способность к анализу и поиску информации.
🟢 leaderboard: https://huggingface.co/spaces/Ayanami0730/DeepResearch-Leaderboard
🟢 code: https://github.com/langchain-ai/open_deep_research
📊 Лидирует в рейтинге среди open-source решений, демонстрируя выдающуюся способность к анализу и поиску информации.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍4🔥3👎1
🍥 Coze Loop — платформа для разработки AI-агентов с открытым исходным кодом. Проект предлагает полный цикл управления AI-агентами: от разработки промптов до мониторинга работы.
Инструмент имеет визуальный Playground для тестирования промптов с возможностью сравнения результатов разных языковых моделей. Для быстрого старта достаточно Docker — проект поддерживает интеграцию с OpenAI и другими LLM. Включает инструменты для оценки точности агентов и отслеживания выполнения запросов.
🤖 GitHub
@golang_google
Инструмент имеет визуальный Playground для тестирования промптов с возможностью сравнения результатов разных языковых моделей. Для быстрого старта достаточно Docker — проект поддерживает интеграцию с OpenAI и другими LLM. Включает инструменты для оценки точности агентов и отслеживания выполнения запросов.
🤖 GitHub
@golang_google
❤3👍2🔥2
Технологическая платформа Авито инвестирует 1 миллиард рублей в запуск научного отдела для передовых исследований ИИ, планируя полностью окупить расходы за счет фокуса на практических исследованиях.
Многие компании сейчас смотрят в сторону искусственного интеллекта, но лишь единицы успешно внедряют его в продукты. Авито намерен избежать «лабораторного подхода» — каждая разработка должна дойти от научной лаборатории до реального применения в сервисах компании.
Руководит лабораторией Александр Рыжков, четырехкратный Kaggle Grandmaster — людей, получивших высшее звание на престижных международных соревнований по машинному обучению, в мире всего 10. Под его управлением команда будет разрабатывать передовые решения в области генеративных моделей, компьютерного зрения, голосовых технологий, защиты от дипфейков и революционных 3D-технологий.
«Технологии ИИ развиваются стремительно, и для современной IT-компании жизненно важно иметь собственный отдел, ответственный за пилотирование и внедрение появляющихся решений. Мы планируем не только следить за мировыми трендами, но и задавать их — определять направление развития технологий для интернет-площадок», — уточнил Андрей Рыбинцев, управляющий директор по искусственному интеллекту Авито.
Кроме того, Авито планирует партнерства с вузами и участие в научных конференциях.
🤍 Подпишитесь на полезные каналы Авито.
Многие компании сейчас смотрят в сторону искусственного интеллекта, но лишь единицы успешно внедряют его в продукты. Авито намерен избежать «лабораторного подхода» — каждая разработка должна дойти от научной лаборатории до реального применения в сервисах компании.
Руководит лабораторией Александр Рыжков, четырехкратный Kaggle Grandmaster — людей, получивших высшее звание на престижных международных соревнований по машинному обучению, в мире всего 10. Под его управлением команда будет разрабатывать передовые решения в области генеративных моделей, компьютерного зрения, голосовых технологий, защиты от дипфейков и революционных 3D-технологий.
«Технологии ИИ развиваются стремительно, и для современной IT-компании жизненно важно иметь собственный отдел, ответственный за пилотирование и внедрение появляющихся решений. Мы планируем не только следить за мировыми трендами, но и задавать их — определять направление развития технологий для интернет-площадок», — уточнил Андрей Рыбинцев, управляющий директор по искусственному интеллекту Авито.
Кроме того, Авито планирует партнерства с вузами и участие в научных конференциях.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 DVC — Git для данных и ML-моделей. Этот инструмент делает для данных то же, что Git для кода — позволяет отслеживать изменения, переключаться между версиями и работать в команде без хаоса.
DVC не загружает тяжелые файлы в Git-репозиторий, а хранит их в облаке или локально, записывая только метаданные. Особенно удобна интеграция с ML-пайплайнами: можно настраивать зависимости между этапами обработки данных и обучения, а он будет перезапускать только изменившиеся части. При этом инструмент отлично дополняет MLflow: первый управляет версиями данных, второй — трекит эксперименты.
🤖 GitHub
@machinelearning_ru
DVC не загружает тяжелые файлы в Git-репозиторий, а хранит их в облаке или локально, записывая только метаданные. Особенно удобна интеграция с ML-пайплайнами: можно настраивать зависимости между этапами обработки данных и обучения, а он будет перезапускать только изменившиеся части. При этом инструмент отлично дополняет MLflow: первый управляет версиями данных, второй — трекит эксперименты.
🤖 GitHub
@machinelearning_ru
❤5
🌐 Илон Маск заявил о превосходстве Grok-4 в программировании, но есть нюансы
В своём твиттере Маск опубликовал результаты IOI Benchmark, где Grok-4 показал лучшую точность (26.2%) среди ИИ-моделей, включая GPT-5 и Gemini 2.5 Pro.
Однако проблем у новой модели Илона тоже хватает. Помимо увеличения точности на 31% по сравнению с прошлой моделью, стоимость новой модели Grok для пользователей увеличилась на целых 60%. Людям будет гораздо выгоднее пользоваться чуть менее слабым GPT-5, но гораздо более дешевым.
🔗 Ссылка - *клик*
В своём твиттере Маск опубликовал результаты IOI Benchmark, где Grok-4 показал лучшую точность (26.2%) среди ИИ-моделей, включая GPT-5 и Gemini 2.5 Pro.
Однако проблем у новой модели Илона тоже хватает. Помимо увеличения точности на 31% по сравнению с прошлой моделью, стоимость новой модели Grok для пользователей увеличилась на целых 60%. Людям будет гораздо выгоднее пользоваться чуть менее слабым GPT-5, но гораздо более дешевым.
🔗 Ссылка - *клик*
❤2👍1