Telegram Web
Работаете в Data Science и хотите стать Middle+? Проверьте свои знания быстрым тестом — и узнайте, готовы ли к следующему шагу!

🔥 ПРОЙТИ ТЕСТ: ссылка

Пройдите тест и проверьте, готовы ли вы к повышению квалификации на курсе «Machine Learning. Advanced». В программе — AutoML, Байесовские методы, обучение с подкреплением и многое другое. Вы научитесь деплоить модели, собирать end-to-end пайплайны и претендовать на позиции Middle+/Senior ML Engineer.

🎁 Успешное прохождение теста — ваш пропуск к записям открытых уроков и скидке на большое обучение.

👉 Оцените свой уровень прямо сейчас: ссылка

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🎤 Вышло большое интервью с Сундаром Пичаи CEO Google и Alphabet У Лекса Фридмана, в котором обсуждаются:

Темы разговора:

- Детство Сундара и его путь из Индии в топ-технологии мира

- Лидерство: стили, трудные решения, советы молодым

- Глобальное влияние ИИ: от Veo 3 до AGI (искусственного общего интеллекта)

- Технологии будущего: Google Beam, XR‑очки, Chrome, Android

- Философия, масштабируемость, программирование, и даже P(doom) — вероятность катастрофы от ИИ

🔥 Плюс: Google только что анонсировал новую модель Gemini 2.5 Pro, которая заняла #1 место на LM Arena

📺 Длительность — более 2 часов, полная версия доступна на X и других платформах (ссылка в комментарии)

🧭 Интересно посмотреть, если хотите:

- Понять мышление топ-менеджера Big Tech

- Услышать прогнозы по AI, видео, браузерам, AGI

- Заглянуть в будущее Google глазами его руководителя

https://www.youtube.com/watch?v=9V6tWC4CdFQ
👍1
🧠 DeepSeek представила R1-0528-Qwen3-8B — один из самых умных 8B LLM на сегодня

Новая модель от DeepSeek — это дистиллят флагманского R1-0528, обученный на примерах рассуждений (Chain-of-Thought).
Цель — сделать мощные способности reasoning-движка R1 доступными на устройствах с ограниченными ресурсами.

📊 Итоги тестов:
• Набрала 52 балла в Artificial Analysis Intelligence Index
• Немного обходит Qwen3 8B от Alibaba, опережая на 1 балл
• Но в реальных задачах разница между ними вряд ли будет заметна

🔍 В отличие от модели Alibaba, DeepSeek не поддерживает управление "включением рассуждения" во время инференса — поведение модели фиксировано.

📈 Прогресс за 5 месяцев:
По уровню reasoning эта 8B-модель теперь соответствует дистиллятам Qwen2.5 32B, представленным ещё в январе.
Фактически, это тот же интеллект, но в 4 раза меньшем размере.

⚙️ Производительность:
• Модель весит всего 8B — это 1.2% от полной DeepSeek R1 (671B)
• Активирует 21.6% параметров оригинального R1 на токен
• Работает в разы быстрее и требует меньше памяти (~16ГБ в BF16)

https://artificialanalysis.ai/models/deepseek-r1-qwen3-8b
🔥51👍1
Forwarded from Machinelearning
🏆 NVIDIA Parakeet V2 возглавила рейтинг ASR-моделей на Hugging Face

Новая модель Parakeet-TDT-0.6B-V2 достигла рекордной точности распознавания речи6.05% Word Error Rate на Open ASR Leaderboard от Hugging Face.

🦜 Parakeet V2 выводит автоматическое распознавание речи (ASR) на новый уровень:

Молниеносный инференс — RTFx 3386 (в 50 раз быстрее аналогов)
🔍 Поддержка необычных сценариев:
• Распознавание песен в текст (song-to-lyrics)
• Форматирование чисел и временных меток
• Высокоточная транскрибация

📌 Лицензирование: CC-BY-4.0

🔗 Leaderboard: huggingface.co/spaces/hf-audio/open_asr_leaderboard
🔗 Демо: huggingface.co/nvidia/parakeet-tdt-0.6b-v2
🔗 Попробовать: build.nvidia.com/explore/speech

@ai_machinelearning_big_data


#NVIDIA #ASR #SpeechRecognition #Parakeet #AIaudio
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍2🥰1
Читаем статьи в 2020 году vs
Читаем статьи в 2025 году
😁9👍72🔥2
📦 Kubernetes for ML Engineers — практическое руководство по продакшну ML-моделей

[Paulescu/kubernetes-for-ml-engineers](https://github.com/Paulescu/kubernetes-for-ml-engineers) — это открытое и очень доступное пошаговое руководство по использованию Kubernetes для машинного обучения. Проект помогает ML-инженерам перенести свои модели из Jupyter-блокнота в стабильное, масштабируемое продакшн-окружение.

🚀 Что внутри:
• Как собрать Docker-образ с моделью
• Как задеплоить его в кластер
• Примеры с REST API для инференса
• Конфигурация Pod'ов, Service'ов, Ingress
• Хостинг моделей с autoscaling
• Набор манифестов YAML — можно адаптировать под себя

🧠 Особенно полезно:
• ML-инженерам без опыта DevOps
• Для обучения Kubernetes через реальные ML-задачи
• Для продакшн-деплоя моделей с минимальными усилиями

📂 Всё по делу: чисто, практично и без лишней теории. Просто бери и запускай.

🔗 GitHub: github.com/Paulescu/kubernetes-for-ml-engineers

#kubernetes #mlops #machinelearning #devops #docker #opensource
👍21🔥1
Gemma 3n теперь на десктопах! 🚀

🤗 Работает на Mac, Windows, Linux и устройствах Интернета вещей (IoT)
🔥 Модели на 2B и 4B параметров
🧠 Использует новую библиотеку LiteRT-LM

GitHub
👍62🔥2👎1
Forwarded from Machinelearning
🌟 NVIDIA cuOpt: GPU-решатель для оптимизации решений.

NVIDIA опубликовала в открытом доступе свой проект cuOpt. Это набор инструментов оптимизации, который использует ресурсы и возможности GPU для решения сложных задач линейного программирования, маршрутизации и логистики.

cuOpt помогает находить эффективные решения для проблем с миллионами переменных, где традиционные методы терпят крах., превращая «нерешаемые» задачи в реальные решения, без жертвования масштабом или скоростью. Это, своего рода, «турбокомпрессоре» для задач, где время и точность критически важны, от доставки товаров до расписаний производства.

cuOpt состоит из C++-движка и API (Python, C и другие), которые работают как обертки, которые дают возможность гибко интегрировать библиотеку в разные проекты.

Для задач маршрутизаций (TSP, VRP, PDP) cuOpt генерирует начальные решения, а затем улучшает их итеративно, используя эвристические алгоритмы. Это не «лобовое» вычисление всех вариантов, а умный поиск, который экономит ресурсы и время.

Методы работы с линейным программированием (LP) и смешанными целочисленными задачами (MILP) тоже уникальны. Для LP применяется PDLP — алгоритм первого порядка, который использует градиентный спуск и работает на GPU, альтернативно запускаясь на CPU с симплекс-методом.

Смешанное целочисленное программирование - это метод математической оптимизации, позволяющий решать задачи с использованием смеси непрерывных переменных (которые могут иметь любое значение, включая десятичные и дробные), дискретных переменных и двоичных переменных.


В MILP немного сложнее: на GPU выполняются эвристики для поиска допустимых решений (локальный поиск, «feasibility pump»), а CPU занимается ветвлениями и границами, улучшая оценку. Решения между GPU и CPU обмениваются в реальном времени, создавая гибридную систему.

▶️ NVIDIA cuOpt предлагает несколько вариантов развертывания, адаптированных под разные задачи: pip, conda или готовый контейнер Docker / NSG.

Еще поддерживаются (с минимальным рефакторингом) инструменты AMPL и PuLP, с помощью которых сценарии использования cuOpt значительно расширяются.

В репозитории проекта разработчики собрали примеры и Jupyter-ноутбуки, которые можно запустить локально или в облачных сервисах: Google Colab (с выбором GPU-среды) или NVIDIA Launchable.


📌 Лицензирование: Apache 2.0 License.


🟡Страница проекта
🟡Документация
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #DS #NVIDIA #CuOPT
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍3
Вышел Claude Code SDK.

Теперь вы можете создавать десятки небольших AI-скриптов для автоматизации и запускать их, когда понадобится.
6👍4👎2🔥2🤩2
🎓 Хочешь разобраться в MCP (Model Context Protocol)? Вот с чего начать:

1️⃣ Курс от Hugging Face
Пошаговое введение в MCP и как он работает внутри LLM-экосистем
huggingface.co/learn/mcp-course

2️⃣ Курс от Microsoft
Практический гайд для новичков — с кодом, примерами и понятным объяснением
github.com/microsoft/mcp-for-beginners

3️⃣ Workshop
Онлайн-интенсив "MCP Fundamentals" — 25 июня, регистрация уже открыта
epicai.pro/events/workshop-mcp-fundamentals-2025-06-25

📦 MCP — это новый стандарт, который скоро будет везде: от агентов до LLM-интерфейсов. Самое время разобраться.

#MCP #AI #LLM #MachineLearning #Courses #DevTools
👍72🥰1
Forwarded from Machinelearning
🌟 SEAL: Еще одна попытка создать пайплайн самообучающихся LLM.

SEAL - это методика от MiT, позволяющая LLM самостоятельно генерировать обучающие данные и настраивать параметры обучения, чтобы адаптироваться к новым задачам. Вместо традиционного файнтюна на внешних данных модель учится рефлексировать: анализировать контекст, создавать из него синтетические данные и применять их для корректировки собственных весов через механизм усиленного обучения.

SEAL, по сути, это два разделенных цикла:

🟢Внешний цикл использует RL, чтобы научить модель генерировать «самоизменения» (инструкции на естественном языке, описывающие, какие данные использовать и как настраивать параметры).

🟢Внутренний цикл реализует эти изменения: модель дообучается на сгенерированных данных, а затем тестирует результат на конкретной задаче. За коррекцию отвечает RL-алгоритм ReSTEM, который оценивает эффективность изменений и обновляет стратегию генерации инструкций. Для экономии ресурсов используются легковесные адаптеры LoRA, которые модифицируют только часть параметров модели.

Этот процесс повторяется, постепенно формируя у модели навык преобразования исходных данных в полезные обучающие сигналы.

SEAL протестили на 2 задачах: интеграции новых знаний и few-shot обучении. В первом случае модель генерирует логические следствия из текста, дообучается на них и улучшает точность ответов на вопросы без доступа к исходному тексту.

Во втором случае SEAL выбирает оптимальные аугментации данных и гиперпараметры для обучения на примерах задач ARC-AGI.

В обоих сценариях SEAL превзошел подходы с фиксированными шаблонами (ICL, TTT+Self Edit без RL и) и даже синтетическими данными от GPT-4.1.

Метод скорее академический и по большей части экспериментальный, у него есть ограничения:

🟠При последовательном применении изменений модель склонна к «катастрофическому забыванию» — потере знаний, усвоенных ранее;

🟠Сопутствующие вычислительные затраты, так как каждая итерация требует дообучения и тестирования модели.


▶️В репозитории проекта разработчики выложили код, данные и инструкции для двух направлений:

🟢Включение новых фактических знаний;

🟢Адаптация к новым задачам на основе примеров.


📌Лицензирование: MIT License.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #SEAL #RL #MiT
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥1🥰1
Forwarded from Machinelearning
🤖 RoboBrain 2.0 — ИИ для нового поколения роботов.

RoboBrain 2.0 — это open-source модель способная к широкому спектру задач: от восприятия окружения до управления роботами.

Её уже называют фундаментом для следующего поколения гуманоидов.

🔹 Поддерживает планирование, восприятие и действия в реальном мире
🔹 Заточен на легкую интеграцию в реальные проекты и роботиизированные системы
🔹 Полностью открытый код

Архитектура:

• Обрабатывает изображения, длинные видео и визуальные данные высокого разрешения
• Понимает сложные текстовые инструкции
• Входные данные:
 — Визуальные — проходят через Vision Encoder + MLP Projector
 — Текстовые — превращаются в унифицированный токен-поток
• Всё подаётся в LLM Decoder, который выполняет рассуждение, строит планы, определяет координаты и пространственные связи

С такими темпами более чем реально, что уже к 2027 году мы увидим массовое производство продвинутых гуманоидных роботов.

ИИ выходит в физический мир — и делает это уверено.

Запуск:

git clone https://github.com/FlagOpen/RoboBrain2.0.git
cd RoboBrain

# build conda env.
conda create -n robobrain2 python=3.10
conda activate robobrain2
pip install -r requirements.txt


Github: https://github.com/FlagOpen/RoboBrain2.0
Hugging face: https://huggingface.co/collections/BAAI/robobrain20-6841eeb1df55c207a4ea0036/

@ai_machinelearning_big_data

#ai #ml #robots #ComputerVision #BAAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1🔥1
🔥 Топ 30 Paper Recommendation Ильи Суцквера— это реально безумная подборка!

В списке — топовые статьи от G. Hinton, Karpathy, Chris Olah и других лидеров индустрии: NLP, компьютерное зрение, RNN, LSTM, основы deep learning и многое другое.

Если ты хочешь быстро войти в тему и понять фундаментальные идеи современного ИИ — тебе сюда!

https://aman.ai/primers/ai/top-30-papers/
👍5🔥1🤬1
🔒 Concrete ML — инструмент для конфиденциального машинного обучения с открытым исходным кодом. Проект позволяет преобразовывать обычные ML-модели в их гомоморфные эквиваленты, сохраняя данные зашифрованными даже во время обработки.

Разработчики предлагают знакомый data scientist'ам интерфейс, похожий на scikit-learn, с возможностью работы через PyTorch и TensorFlow. Решение полностью автоматизирует гомоморфного шифрования (FHE) без необходимости глубоких знаний в криптографии.

🤖 GitHub

@machinelearning_ru
👍5🔥2
2025/07/08 14:52:53
Back to Top
HTML Embed Code: