tgoop.com »
United States »
Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение » Telegram Web
🐳 Делаем конкурента DeepSeek R1-Zero на домашней пекарне: метод GRPO в Unsloth
Обычно LLM требуют мощных GPU, но теперь даже на видеокарте с ограниченной памятью можно обучать модели логического рассуждения.
💡 Фишка — новый алгоритм GRPO, который позволяет моделям развивать логическое мышление без вмешательства человека.
Подробнее в нашей статье: https://proglib.io/sh/MyBCbq9is5
Обычно LLM требуют мощных GPU, но теперь даже на видеокарте с ограниченной памятью можно обучать модели логического рассуждения.
💡 Фишка — новый алгоритм GRPO, который позволяет моделям развивать логическое мышление без вмешательства человека.
Подробнее в нашей статье: https://proglib.io/sh/MyBCbq9is5
❤2
This media is not supported in your browser
VIEW IN TELEGRAM
💘 14 февраля: песня о любви… от нейросети
Лучшее, что можно сделать в День всех влюбленных? Конечно, признаться в любви… к своей работе! ❤️
Мы предсказываем будущее, строим модели, оживляем нейросети — без нас мир был бы совсем другим! Чтобы отпраздновать этот день, мы попросили ИИ написать гимн всех дата-сайентистов. И вот что получилось:
🎧 Включайте видео и заряжайтесь вдохновением!
А за что вы любите (или не очень) свою работу? Делитесь в комментариях! ⬇️
Лучшее, что можно сделать в День всех влюбленных? Конечно, признаться в любви… к своей работе! ❤️
Мы предсказываем будущее, строим модели, оживляем нейросети — без нас мир был бы совсем другим! Чтобы отпраздновать этот день, мы попросили ИИ написать гимн всех дата-сайентистов. И вот что получилось:
«В потоке данных я как супергерой,
Собираю инсайты одной рукой»
🎧 Включайте видео и заряжайтесь вдохновением!
А за что вы любите (или не очень) свою работу? Делитесь в комментариях! ⬇️
🔥4❤2👍2
📊 ETL, ELT и EtLT — в чём разница?
Если эти аббревиатуры кажутся вам загадочным шифром, давайте разбираться!
🔹 ETL (Extract, Transform, Load) — сначала преобразуем, потом загружаем.
✅ Высокое качество данных, экономия места.
❌ Долго, сложно менять трансформации.
🔹 ELT (Extract, Load, Transform) — сначала загружаем, потом трансформируем.
✅ Гибкость, скорость.
❌ Дороже, требует сильного хранилища, ошибки обнаруживаются позже.
🔹 EtLT (Extract, tiny Load, Transform) — компромисс между первыми двумя.
✅ Оптимальный баланс скорости и качества, фильтрация мусора на ранних этапах.
❌ Сложнее в реализации, мало инструментов.
Какой метод используете вы?
Если эти аббревиатуры кажутся вам загадочным шифром, давайте разбираться!
🔹 ETL (Extract, Transform, Load) — сначала преобразуем, потом загружаем.
✅ Высокое качество данных, экономия места.
❌ Долго, сложно менять трансформации.
🔹 ELT (Extract, Load, Transform) — сначала загружаем, потом трансформируем.
✅ Гибкость, скорость.
❌ Дороже, требует сильного хранилища, ошибки обнаруживаются позже.
🔹 EtLT (Extract, tiny Load, Transform) — компромисс между первыми двумя.
✅ Оптимальный баланс скорости и качества, фильтрация мусора на ранних этапах.
❌ Сложнее в реализации, мало инструментов.
Какой метод используете вы?
👍6❤3
👉 Что такое Preswald?
Preswald — это полнофункциональная платформа для создания, развертывания и управления интерактивными дата-приложениями. Она объединяет загрузку, хранение, обработку и визуализацию данных в одном мощном и лёгком SDK.
🔹 Простота кода — минимум Python и SQL для создания мощных приложений
🔹 Полный цикл — от ETL до визуализации в одной платформе
🔹 Эффективность — убирает лишнюю сложность, сохраняя гибкость
Ссылка на проект: https://clc.to/JyyQfw
Preswald — это полнофункциональная платформа для создания, развертывания и управления интерактивными дата-приложениями. Она объединяет загрузку, хранение, обработку и визуализацию данных в одном мощном и лёгком SDK.
🔹 Простота кода — минимум Python и SQL для создания мощных приложений
🔹 Полный цикл — от ETL до визуализации в одной платформе
🔹 Эффективность — убирает лишнюю сложность, сохраняя гибкость
Ссылка на проект: https://clc.to/JyyQfw
👍3❤1
⚠️ В машинном обучении, как в любви: слишком идеальные предсказания – это подозрительно!
Когда модель слишком прилипчива к тренировочным данным, результат оказывается… ну, как в отношениях, когда всё кажется идеальным, но реальность ломает сердце.
❌ Оверфиттинг (Overfitting) – модель так хорошо запомнила тренировочные данные, что на реальных данных начинает путаться.
💔 В любви: «Я выбрал идеального партнёра по профилю, а в жизни выяснилось, что его «идеальность» – всего лишь иллюзия!»
❌ Андерфиттинг (Underfitting) – модель обучена настолько поверхностно, что предсказывает мэтчи случайным образом.
💔 В любви: «Мне нравятся только люди с именем Александр, а всех остальных я даже не замечаю – бедный фильтр!»
❌ Неправильный выбор фичей (Feature Selection Fail) – если модель опирается на неважные признаки, она предсказывает мэтчи хуже случайности.
💔 В любви: «Ты любишь авокадо? Значит, мы созданы друг для друга!» – а потом оказывается, что это вовсе не про важное.
🎯 На вебинаре мы разобрали, как избежать этих ошибок и создать работающую модель для speed dating, которая на самом деле помогает находить любовь! Вчера мы не просто говорили о любви – мы её предсказывали!
🔥 Спасибо всем, кто был с нами и участвовал!
💘 Как же это было?
Если ты пропустил вебинар или хочешь пересмотреть запись – просто перейди по [ссылке] и получи видео 😉
Когда модель слишком прилипчива к тренировочным данным, результат оказывается… ну, как в отношениях, когда всё кажется идеальным, но реальность ломает сердце.
❌ Оверфиттинг (Overfitting) – модель так хорошо запомнила тренировочные данные, что на реальных данных начинает путаться.
💔 В любви: «Я выбрал идеального партнёра по профилю, а в жизни выяснилось, что его «идеальность» – всего лишь иллюзия!»
❌ Андерфиттинг (Underfitting) – модель обучена настолько поверхностно, что предсказывает мэтчи случайным образом.
💔 В любви: «Мне нравятся только люди с именем Александр, а всех остальных я даже не замечаю – бедный фильтр!»
❌ Неправильный выбор фичей (Feature Selection Fail) – если модель опирается на неважные признаки, она предсказывает мэтчи хуже случайности.
💔 В любви: «Ты любишь авокадо? Значит, мы созданы друг для друга!» – а потом оказывается, что это вовсе не про важное.
🎯 На вебинаре мы разобрали, как избежать этих ошибок и создать работающую модель для speed dating, которая на самом деле помогает находить любовь! Вчера мы не просто говорили о любви – мы её предсказывали!
🔥 Спасибо всем, кто был с нами и участвовал!
💘 Как же это было?
Если ты пропустил вебинар или хочешь пересмотреть запись – просто перейди по [ссылке] и получи видео 😉
❤4😁1
😴 Скучно на выходных?
Что, если построить свою библиотеку машинного обучения с чистого листа — только с Python, NumPy и математическими формулами?
ML by Hand — библиотека, которая помогает понять, как работают нейросети изнутри. С её помощью можно обучить модели от CNN и LSTM до GPT без готовых фреймворков.
✅ Проект вдохновлён Micrograd Андрея Карпатого и идеально подойдёт тем, кто хочет разобраться в глубинной математике ИИ.
🔗 Код и подробности: https://clc.to/M2buLg
Что, если построить свою библиотеку машинного обучения с чистого листа — только с Python, NumPy и математическими формулами?
ML by Hand — библиотека, которая помогает понять, как работают нейросети изнутри. С её помощью можно обучить модели от CNN и LSTM до GPT без готовых фреймворков.
✅ Проект вдохновлён Micrograd Андрея Карпатого и идеально подойдёт тем, кто хочет разобраться в глубинной математике ИИ.
🔗 Код и подробности: https://clc.to/M2buLg
👍4😁3
🔥 4 стратегии обучения на нескольких GPU
При обучении нейросетей важно эффективно распределять нагрузку между видеокартами. Разберем четыре ключевых подхода к параллелизации:
Model Parallelism — разделение слоев модели между GPU. Каждый GPU обрабатывает свою часть сети (например, слой 1 на первом GPU, слой 2 — на втором).
✅ Подходит для очень больших моделей
❌ Сложно синхронизировать вычисления
Tensor Parallelism — разделение нейронов внутри слоя. Один и тот же слой делится между несколькими GPU.
✅ Используется в современных LLM (GPT, LLaMA)
❌ Требует сложных алгоритмов коммуникации
Data Parallelism — разбиение данных. Одна и та же модель копируется на каждый GPU, но обучается на разных мини-батчах.
✅ Простой в реализации
❌ Ограничен размером батча
Pipeline Parallelism — послойная обработка данных. Данные передаются через несколько GPU по конвейеру.
✅ Подходит для глубоких моделей
❌ Может быть простой (idle time) между шагами
При обучении нейросетей важно эффективно распределять нагрузку между видеокартами. Разберем четыре ключевых подхода к параллелизации:
Model Parallelism — разделение слоев модели между GPU. Каждый GPU обрабатывает свою часть сети (например, слой 1 на первом GPU, слой 2 — на втором).
✅ Подходит для очень больших моделей
❌ Сложно синхронизировать вычисления
Tensor Parallelism — разделение нейронов внутри слоя. Один и тот же слой делится между несколькими GPU.
✅ Используется в современных LLM (GPT, LLaMA)
❌ Требует сложных алгоритмов коммуникации
Data Parallelism — разбиение данных. Одна и та же модель копируется на каждый GPU, но обучается на разных мини-батчах.
✅ Простой в реализации
❌ Ограничен размером батча
Pipeline Parallelism — послойная обработка данных. Данные передаются через несколько GPU по конвейеру.
✅ Подходит для глубоких моделей
❌ Может быть простой (idle time) между шагами
❤5👍2
Shuffle Feature Importance: простая методика оценки важности признаков
Shuffle Feature Importance — интуитивно понятный метод оценки значимости признаков в модели машинного обучения. Он основан на анализе того, насколько ухудшается качество модели после случайного перемешивания значений конкретного признака.
Как это работает:
▪️ Обучение модели и оценка её качества (P₁) на исходных данных.
▪️ Перемешивание одного признака (shuffle) и повторная оценка качества модели (P₂).
▪️ Расчёт важности признака: разница между исходным и новым качеством модели (P₁ — P₂).
▪️ Повторение процедуры для всех признаков, чтобы получить сравнительную значимость.
📊 Чем сильнее падает качество после перемешивания, тем важнее признак для модели!
Shuffle Feature Importance — интуитивно понятный метод оценки значимости признаков в модели машинного обучения. Он основан на анализе того, насколько ухудшается качество модели после случайного перемешивания значений конкретного признака.
Как это работает:
▪️ Обучение модели и оценка её качества (P₁) на исходных данных.
▪️ Перемешивание одного признака (shuffle) и повторная оценка качества модели (P₂).
▪️ Расчёт важности признака: разница между исходным и новым качеством модели (P₁ — P₂).
▪️ Повторение процедуры для всех признаков, чтобы получить сравнительную значимость.
📊 Чем сильнее падает качество после перемешивания, тем важнее признак для модели!
👍8❤2🎉1
✨ smolmodels — машинное обучение на естественном языке
Библиотека для создания моделей машинного обучения с минимальным кодом. Просто опишите задачу словами — smolmodels выполнит всё остальное: от генерации данных до обучения и упаковки модели.
Основные возможности:
✔️ Автоматическая генерация данных
✔️ Feature engineering без ручного вмешательства
✔️ Обучение модели на основе текстового описания
✔️ Упаковка готовой модели для использования
Ссылка: https://clc.to/_tBBWg
Библиотека для создания моделей машинного обучения с минимальным кодом. Просто опишите задачу словами — smolmodels выполнит всё остальное: от генерации данных до обучения и упаковки модели.
Основные возможности:
✔️ Автоматическая генерация данных
✔️ Feature engineering без ручного вмешательства
✔️ Обучение модели на основе текстового описания
✔️ Упаковка готовой модели для использования
Ссылка: https://clc.to/_tBBWg
👍3👏2❤1
❗Вакансии «Библиотеки программиста» — ждем вас в команде!
Мы постоянно растем и развиваемся, поэтому создали отдельную страницу, на которой будут размещены наши актуальные вакансии. Сейчас мы ищем:
👉контент-менеджеров для ведения телеграм-каналов
👉Переводчик и автор оригинальных статей
Подробности тут
Мы предлагаем частичную занятость и полностью удаленный формат работы — можно совмещать с основной и находиться в любом месте🌴
Ждем ваших откликов 👾
Мы постоянно растем и развиваемся, поэтому создали отдельную страницу, на которой будут размещены наши актуальные вакансии. Сейчас мы ищем:
👉контент-менеджеров для ведения телеграм-каналов
👉Переводчик и автор оригинальных статей
Подробности тут
Мы предлагаем частичную занятость и полностью удаленный формат работы — можно совмещать с основной и находиться в любом месте🌴
Ждем ваших откликов 👾
job.proglib.io
Вакансии в медиа «Библиотека программиста»
Количество проектов в редакции постоянно растет, так что нам всегда нужны специалисты
R²: высокое значение ≠ хорошие прогнозы
R² (коэффициент детерминации) показывает, какая доля изменчивости зависимой переменной объясняется моделью.
✅ R² = 0 → Модель не объясняет данные → Плохая предсказательная способность.
✅ R² = 1 → Полное соответствие данным → Возможен оверфит.
⚠️ Главное заблуждение: высокий R² не гарантирует точных прогнозов, а лишь оценивает, насколько модель подогнана под данные.
Формула:
R² = 1 — (RSS / TSS),
где TSS — общая изменчивость, RSS — ошибка модели.
R² (коэффициент детерминации) показывает, какая доля изменчивости зависимой переменной объясняется моделью.
✅ R² = 0 → Модель не объясняет данные → Плохая предсказательная способность.
✅ R² = 1 → Полное соответствие данным → Возможен оверфит.
⚠️ Главное заблуждение: высокий R² не гарантирует точных прогнозов, а лишь оценивает, насколько модель подогнана под данные.
Формула:
R² = 1 — (RSS / TSS),
где TSS — общая изменчивость, RSS — ошибка модели.
👍7❤1
Forwarded from Библиотека задач по Data Science | тесты, код, задания
❤1
👍 Автомодерация изображений: как исправлять нарушения, сохраняя количество и качество контента
Раньше объявления, нарушающие правила, просто блокировались. Теперь с помощью ML-системы их можно исправлять — это сохраняет контент, снижает затраты на модерацию и улучшает пользовательский опыт.
В статье подробно разбираются все этапы внедрения этой ML-механики: от идеи и исследования подходов до оптимизации нейросетей и вывода в продакшен.
🔗 Читайте подробнее: https://clc.to/bB7QNw
Раньше объявления, нарушающие правила, просто блокировались. Теперь с помощью ML-системы их можно исправлять — это сохраняет контент, снижает затраты на модерацию и улучшает пользовательский опыт.
В статье подробно разбираются все этапы внедрения этой ML-механики: от идеи и исследования подходов до оптимизации нейросетей и вывода в продакшен.
🔗 Читайте подробнее: https://clc.to/bB7QNw
❤3👍2😁1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 Логистическая регрессия vs. Многослойный персептрон
На изображении сравниваются два метода классификации данных: логистическая регрессия (слева) и многослойный персептрон (MLP, справа) после 25 эпох обучения.
✅ Результаты показывают, что MLP лучше справляется с нелинейно разделимыми данными, в отличие от логистической регрессии, которая проводит лишь простую линейную границу.
На изображении сравниваются два метода классификации данных: логистическая регрессия (слева) и многослойный персептрон (MLP, справа) после 25 эпох обучения.
✅ Результаты показывают, что MLP лучше справляется с нелинейно разделимыми данными, в отличие от логистической регрессии, которая проводит лишь простую линейную границу.
❤3👍2🔥1
Forwarded from Data jobs — вакансии по data science, анализу данных, аналитике, искусственному интеллекту
📝 Почему твое резюме собирает мало просмотров: 6 главных ошибок и как их исправить
Гайд о том, как в несколько раз увеличить количество просмотров вашего резюме с помощью проверенных техник оптимизации профиля.
В этой статье мы разберем 6 ошибок, которые мешают вашему резюме появляться в поиске рекрутеров, и дадим рекомендации по их исправлению. Следуя этим советам, вы повысите видимость своего профиля и чаще будете попадать в поле зрения работодателей.
👉 Читать статью
Гайд о том, как в несколько раз увеличить количество просмотров вашего резюме с помощью проверенных техник оптимизации профиля.
В этой статье мы разберем 6 ошибок, которые мешают вашему резюме появляться в поиске рекрутеров, и дадим рекомендации по их исправлению. Следуя этим советам, вы повысите видимость своего профиля и чаще будете попадать в поле зрения работодателей.
👉 Читать статью
❤1
🔍 DeepFace — инструмент для распознавания лиц в Python
DeepFace — это лёгкий фреймворк для анализа лиц и их характеристик (возраст, пол, эмоции, раса). Он объединяет передовые модели, такие как VGG-Face, FaceNet, OpenFace, DeepID, ArcFace и другие.
Ссылка: https://clc.to/QiY9Dg
DeepFace — это лёгкий фреймворк для анализа лиц и их характеристик (возраст, пол, эмоции, раса). Он объединяет передовые модели, такие как VGG-Face, FaceNet, OpenFace, DeepID, ArcFace и другие.
Ссылка: https://clc.to/QiY9Dg
❤4👍2👏1
This media is not supported in your browser
VIEW IN TELEGRAM
📌 Как строится процесс разработки ML-решений?
Построение ML-решений — это командный процесс, требующий участия разных специалистов. От идеи до внедрения проходит несколько этапов:
👍 Визуализация отлично показывает, как все роли взаимодействуют друг с другом.
Построение ML-решений — это командный процесс, требующий участия разных специалистов. От идеи до внедрения проходит несколько этапов:
👍 Визуализация отлично показывает, как все роли взаимодействуют друг с другом.
👍2❤1
🔍 Заполнение пропущенных значений в данных
Реальные датасеты часто содержат пропуски, что мешает обучению моделей.
В этом туториале разберём различные стратегии заполнения пропусков с помощью
Реальные датасеты часто содержат пропуски, что мешает обучению моделей.
В этом туториале разберём различные стратегии заполнения пропусков с помощью
scikit-learn
и научимся подготавливать данные для машинного обучения.👍4❤1🔥1😁1