Telegram Web
🐳 Делаем конкурента DeepSeek R1-Zero на домашней пекарне: метод GRPO в Unsloth

Обычно LLM требуют мощных GPU, но теперь даже на видеокарте с ограниченной памятью можно обучать модели логического рассуждения.

💡 Фишка — новый алгоритм GRPO, который позволяет моделям развивать логическое мышление без вмешательства человека.

Подробнее в нашей статье: https://proglib.io/sh/MyBCbq9is5
2
This media is not supported in your browser
VIEW IN TELEGRAM
💘 14 февраля: песня о любви… от нейросети

Лучшее, что можно сделать в День всех влюбленных? Конечно, признаться в любви… к своей работе! ❤️

Мы предсказываем будущее, строим модели, оживляем нейросети — без нас мир был бы совсем другим! Чтобы отпраздновать этот день, мы попросили ИИ написать гимн всех дата-сайентистов. И вот что получилось:

«В потоке данных я как супергерой,
Собираю инсайты одной рукой»


🎧 Включайте видео и заряжайтесь вдохновением!

А за что вы любите (или не очень) свою работу? Делитесь в комментариях! ⬇️
🔥42👍2
📊 ETL, ELT и EtLT — в чём разница?

Если эти аббревиатуры кажутся вам загадочным шифром, давайте разбираться!

🔹 ETL (Extract, Transform, Load) — сначала преобразуем, потом загружаем.
Высокое качество данных, экономия места.
Долго, сложно менять трансформации.

🔹 ELT (Extract, Load, Transform) — сначала загружаем, потом трансформируем.
Гибкость, скорость.
Дороже, требует сильного хранилища, ошибки обнаруживаются позже.

🔹 EtLT (Extract, tiny Load, Transform) — компромисс между первыми двумя.
Оптимальный баланс скорости и качества, фильтрация мусора на ранних этапах.
Сложнее в реализации, мало инструментов.

Какой метод используете вы?
👍63
👉 Что такое Preswald?

Preswald — это полнофункциональная платформа для создания, развертывания и управления интерактивными дата-приложениями. Она объединяет загрузку, хранение, обработку и визуализацию данных в одном мощном и лёгком SDK.

🔹 Простота кода — минимум Python и SQL для создания мощных приложений
🔹 Полный цикл — от ETL до визуализации в одной платформе
🔹 Эффективность — убирает лишнюю сложность, сохраняя гибкость

Ссылка на проект: https://clc.to/JyyQfw
👍31
⚠️ В машинном обучении, как в любви: слишком идеальные предсказания – это подозрительно!

Когда модель слишком прилипчива к тренировочным данным, результат оказывается… ну, как в отношениях, когда всё кажется идеальным, но реальность ломает сердце.

Оверфиттинг (Overfitting) – модель так хорошо запомнила тренировочные данные, что на реальных данных начинает путаться.
💔 В любви: «Я выбрал идеального партнёра по профилю, а в жизни выяснилось, что его «идеальность» – всего лишь иллюзия!»

Андерфиттинг (Underfitting) – модель обучена настолько поверхностно, что предсказывает мэтчи случайным образом.
💔 В любви: «Мне нравятся только люди с именем Александр, а всех остальных я даже не замечаю – бедный фильтр!»

Неправильный выбор фичей (Feature Selection Fail) – если модель опирается на неважные признаки, она предсказывает мэтчи хуже случайности.
💔 В любви: «Ты любишь авокадо? Значит, мы созданы друг для друга!» – а потом оказывается, что это вовсе не про важное.

🎯 На вебинаре мы разобрали, как избежать этих ошибок и создать работающую модель для speed dating, которая на самом деле помогает находить любовь! Вчера мы не просто говорили о любви – мы её предсказывали!

🔥 Спасибо всем, кто был с нами и участвовал!

💘 Как же это было?

Если ты пропустил вебинар или хочешь пересмотреть запись – просто перейди по [ссылке] и получи видео 😉
4😁1
😴 Скучно на выходных?

Что, если построить свою библиотеку машинного обучения с чистого листа — только с Python, NumPy и математическими формулами?

ML by Hand — библиотека, которая помогает понять, как работают нейросети изнутри. С её помощью можно обучить модели от CNN и LSTM до GPT без готовых фреймворков.

Проект вдохновлён Micrograd Андрея Карпатого и идеально подойдёт тем, кто хочет разобраться в глубинной математике ИИ.

🔗 Код и подробности: https://clc.to/M2buLg
👍4😁3
🔥 4 стратегии обучения на нескольких GPU

При обучении нейросетей важно эффективно распределять нагрузку между видеокартами. Разберем четыре ключевых подхода к параллелизации:

Model Parallelism — разделение слоев модели между GPU. Каждый GPU обрабатывает свою часть сети (например, слой 1 на первом GPU, слой 2 — на втором).
Подходит для очень больших моделей
Сложно синхронизировать вычисления

Tensor Parallelism — разделение нейронов внутри слоя. Один и тот же слой делится между несколькими GPU.
Используется в современных LLM (GPT, LLaMA)
Требует сложных алгоритмов коммуникации

Data Parallelism — разбиение данных. Одна и та же модель копируется на каждый GPU, но обучается на разных мини-батчах.
Простой в реализации
Ограничен размером батча

Pipeline Parallelism — послойная обработка данных. Данные передаются через несколько GPU по конвейеру.
Подходит для глубоких моделей
Может быть простой (idle time) между шагами
5👍2
Ожидание: Чёткий план, логичный перебор параметров.
😵‍💫 Реальность: Бесконечный хаос, случайные комбинации и надежда на лучшее.
😁17💯1
Shuffle Feature Importance: простая методика оценки важности признаков

Shuffle Feature Importance — интуитивно понятный метод оценки значимости признаков в модели машинного обучения. Он основан на анализе того, насколько ухудшается качество модели после случайного перемешивания значений конкретного признака.

Как это работает:
▪️ Обучение модели и оценка её качества (P₁) на исходных данных.
▪️ Перемешивание одного признака (shuffle) и повторная оценка качества модели (P₂).
▪️ Расчёт важности признака: разница между исходным и новым качеством модели (P₁ — P₂).
▪️ Повторение процедуры для всех признаков, чтобы получить сравнительную значимость.

📊 Чем сильнее падает качество после перемешивания, тем важнее признак для модели!
👍82🎉1
smolmodels — машинное обучение на естественном языке

Библиотека для создания моделей машинного обучения с минимальным кодом. Просто опишите задачу словами — smolmodels выполнит всё остальное: от генерации данных до обучения и упаковки модели.

Основные возможности:
✔️ Автоматическая генерация данных
✔️ Feature engineering без ручного вмешательства
✔️ Обучение модели на основе текстового описания
✔️ Упаковка готовой модели для использования

Ссылка: https://clc.to/_tBBWg
👍3👏21
Вакансии «Библиотеки программиста» — ждем вас в команде!

Мы постоянно растем и развиваемся, поэтому создали отдельную страницу, на которой будут размещены наши актуальные вакансии. Сейчас мы ищем:
👉контент-менеджеров для ведения телеграм-каналов
👉Переводчик и автор оригинальных статей

Подробности тут

Мы предлагаем частичную занятость и полностью удаленный формат работы — можно совмещать с основной и находиться в любом месте🌴

Ждем ваших откликов 👾
R²: высокое значение ≠ хорошие прогнозы

R² (коэффициент детерминации) показывает, какая доля изменчивости зависимой переменной объясняется моделью.

R² = 0 → Модель не объясняет данные → Плохая предсказательная способность.
R² = 1 → Полное соответствие данным → Возможен оверфит.

⚠️ Главное заблуждение: высокий R² не гарантирует точных прогнозов, а лишь оценивает, насколько модель подогнана под данные.

Формула:
R² = 1 — (RSS / TSS),
где TSS — общая изменчивость, RSS — ошибка модели.
👍71
👍 Автомодерация изображений: как исправлять нарушения, сохраняя количество и качество контента

Раньше объявления, нарушающие правила, просто блокировались. Теперь с помощью ML-системы их можно исправлять — это сохраняет контент, снижает затраты на модерацию и улучшает пользовательский опыт.

В статье подробно разбираются все этапы внедрения этой ML-механики: от идеи и исследования подходов до оптимизации нейросетей и вывода в продакшен.

🔗 Читайте подробнее: https://clc.to/bB7QNw
3👍2😁1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 Логистическая регрессия vs. Многослойный персептрон

На изображении сравниваются два метода классификации данных: логистическая регрессия (слева) и многослойный персептрон (MLP, справа) после 25 эпох обучения.

Результаты показывают, что MLP лучше справляется с нелинейно разделимыми данными, в отличие от логистической регрессии, которая проводит лишь простую линейную границу.
3👍2🔥1
📝 Почему твое резюме собирает мало просмотров: 6 главных ошибок и как их исправить

Гайд о том, как в несколько раз увеличить количество просмотров вашего резюме с помощью проверенных техник оптимизации профиля.

В этой статье мы разберем 6 ошибок, которые мешают вашему резюме появляться в поиске рекрутеров, и дадим рекомендации по их исправлению. Следуя этим советам, вы повысите видимость своего профиля и чаще будете попадать в поле зрения работодателей.

👉 Читать статью
1
🔍 DeepFace — инструмент для распознавания лиц в Python

DeepFace — это лёгкий фреймворк для анализа лиц и их характеристик (возраст, пол, эмоции, раса). Он объединяет передовые модели, такие как VGG-Face, FaceNet, OpenFace, DeepID, ArcFace и другие.

Ссылка: https://clc.to/QiY9Dg
4👍2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 Как строится процесс разработки ML-решений?

Построение ML-решений — это командный процесс, требующий участия разных специалистов. От идеи до внедрения проходит несколько этапов:

👍 Визуализация отлично показывает, как все роли взаимодействуют друг с другом.
👍21
🔍 Заполнение пропущенных значений в данных

Реальные датасеты часто содержат пропуски, что мешает обучению моделей.

В этом туториале разберём различные стратегии заполнения пропусков с помощью scikit-learn и научимся подготавливать данные для машинного обучения.
👍41🔥1😁1
2025/07/09 21:33:32
Back to Top
HTML Embed Code: