tgoop.com »
United States »
Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение » Telegram Web
🗺️ Как стать ИИ-разработчиком в 2025 году: дорожная карта и ресурсы
В 2025 году профессия ИИ-разработчика остается одной из самых востребованных и перспективных.
👀 Как начать свой путь в этой увлекательной, но сложной области?
Мы собрали подробную дорожную карту и полезные ресурсы, которые помогут вам шаг за шагом освоить ключевые навыки и технологии.
В 2025 году профессия ИИ-разработчика остается одной из самых востребованных и перспективных.
👀 Как начать свой путь в этой увлекательной, но сложной области?
Мы собрали подробную дорожную карту и полезные ресурсы, которые помогут вам шаг за шагом освоить ключевые навыки и технологии.
⚡️ Если вы вдруг забыли: у нас можно купить рекламу
Библиотека программиста — медиа с миллионной аудиторией из IT-сферы. Что у нас есть:
• 60+ телеграм-каналов по разным IT-направлениям, от Python до DevOps
• 25 000 daily active users на сайте, который поможет усилить продвижение
• Возможность сделать нативную интеграцию, виральный пост и не только
За айтишной аудиторией — к нам 😏
По вопросам рекламы пишите сюда → @proglib_adv
Библиотека программиста — медиа с миллионной аудиторией из IT-сферы. Что у нас есть:
• 60+ телеграм-каналов по разным IT-направлениям, от Python до DevOps
• 25 000 daily active users на сайте, который поможет усилить продвижение
• Возможность сделать нативную интеграцию, виральный пост и не только
За айтишной аудиторией — к нам 😏
По вопросам рекламы пишите сюда → @proglib_adv
😳 Разработать свой проект с нуля и получить за него оффер
Если вас привлекает продуктовая аналитика и создание data-driven решений — приходите на конкурс «ИНТЕГРАФ», чтобы реализовать свой проект и поработать с реальными данными и кейсами.
💪 У вас будет возможность:
• провести полноценное продуктовое исследование
• разработать прототип нового цифрового решения
• продумать стратегию его развития
Это не просто учебный проект — вы будете работать над реальными задачами от VK, Avito и Юнилевер Русь.
Еще участники смогут получить предложение о стажировке или работе от компаний-партнеров. А для тех, кто планирует поступать в магистратуру — участие в конкурсе даёт дополнительные баллы при поступлении.
Для участия нужно собрать команду из 3-5 человек и подать заявку на сайте.
👉 Успевайте зарегистрироваться до 1 февраля
Если вас привлекает продуктовая аналитика и создание data-driven решений — приходите на конкурс «ИНТЕГРАФ», чтобы реализовать свой проект и поработать с реальными данными и кейсами.
💪 У вас будет возможность:
• провести полноценное продуктовое исследование
• разработать прототип нового цифрового решения
• продумать стратегию его развития
Это не просто учебный проект — вы будете работать над реальными задачами от VK, Avito и Юнилевер Русь.
Еще участники смогут получить предложение о стажировке или работе от компаний-партнеров. А для тех, кто планирует поступать в магистратуру — участие в конкурсе даёт дополнительные баллы при поступлении.
Для участия нужно собрать команду из 3-5 человек и подать заявку на сайте.
👉 Успевайте зарегистрироваться до 1 февраля
👀 DeepSeek R1: разбираемся с фактами
🔸 Ходят слухи, что обучение DeepSeek стоило ~$6M, но это маловероятно. Только базовая модель без RL обошлась в $5.5M, а ведь были ещё дополнительные прогоны обучения и полное обучение R1.
🔸 DeepSeek — не стартап на коленке. Их поддерживает High-Flyer, крупный китайский хедж-фонд, а команда состоит из олимпиадников по математике и физике. Они работают на 50,000+ GPU, что говорит о масштабе.
🔸 DeepSeek R1 — это 671B параметров, для работы требуется 16×H100. Это один из самых мощных опенсорсных ИИ.
🔸 Есть и «облегчённые» версии, например, 1.5B, но это не настоящий R1, а лишь дообученные Qwen/Llama.
📌 Если используете хостинговую версию DeepSeek, внимательно изучите ToS (условия предоставления услуг). Они могут использовать ваши данные для обучения будущих моделей.
🔸 Ходят слухи, что обучение DeepSeek стоило ~$6M, но это маловероятно. Только базовая модель без RL обошлась в $5.5M, а ведь были ещё дополнительные прогоны обучения и полное обучение R1.
🔸 DeepSeek — не стартап на коленке. Их поддерживает High-Flyer, крупный китайский хедж-фонд, а команда состоит из олимпиадников по математике и физике. Они работают на 50,000+ GPU, что говорит о масштабе.
🔸 DeepSeek R1 — это 671B параметров, для работы требуется 16×H100. Это один из самых мощных опенсорсных ИИ.
🔸 Есть и «облегчённые» версии, например, 1.5B, но это не настоящий R1, а лишь дообученные Qwen/Llama.
📌 Если используете хостинговую версию DeepSeek, внимательно изучите ToS (условия предоставления услуг). Они могут использовать ваши данные для обучения будущих моделей.
Forwarded from Библиотека собеса по Data Science | вопросы с собеседований
Ответ: Верно.
Метод bagging (Bootstrap Aggregating) предполагает случайный выбор K объектов из исходного обучающего набора с заменой, где K равно размеру исходного набора данных.
Это означает, что одни экземпляры могут встречаться несколько раз, а другие могут не попасть в выборку вовсе.
Такой подход позволяет создать несколько различных обучающих подмножеств, что снижает дисперсию модели и повышает её устойчивость.
Forwarded from Библиотека собеса по Data Science | вопросы с собеседований
🔥 Вышел PyTorch 2.6
🔷 Появился параметр
🔷 AOTInductor (компилятор для ускорения моделей) получил новые фичи. Теперь в нём есть «минификатор», который помогает находить ошибки в моделях, создавая минимальный код, воспроизводящий проблему.
🔷 Также добавили режим ABI — это значит, что при обновлениях PyTorch ничего гарантировано не сломается.
🔷 Теперь
Полный список изменений здесь 👉 https://clc.to/OcCJwA
🔷 Появился параметр
torch.compiler.set_stance
— теперь можно управлять поведением torch.compile
. Например, включить «жадный» режим, чтобы код выполнялся без лишней компиляции.🔷 AOTInductor (компилятор для ускорения моделей) получил новые фичи. Теперь в нём есть «минификатор», который помогает находить ошибки в моделях, создавая минимальный код, воспроизводящий проблему.
🔷 Также добавили режим ABI — это значит, что при обновлениях PyTorch ничего гарантировано не сломается.
🔷 Теперь
torch.compile
совместим с Python 3.13.Полный список изменений здесь 👉 https://clc.to/OcCJwA
🏆 Лучшие библиотеки для Machine Learning на Python
Этот список — настоящий топ open-source проектов по ML, который обновляется каждую неделю.
📊 920 лучших библиотек с общим числом 4.8M звёзд на GitHub!
📂 34 категории, от классического ML до дип-обучения.
📈 Высокий рейтинг проектов на основе качества, данных из GitHub и пакетных менеджеров.
📌 Репозиторий: https://clc.to/brfm8g
Этот список — настоящий топ open-source проектов по ML, который обновляется каждую неделю.
📊 920 лучших библиотек с общим числом 4.8M звёзд на GitHub!
📂 34 категории, от классического ML до дип-обучения.
📈 Высокий рейтинг проектов на основе качества, данных из GitHub и пакетных менеджеров.
📌 Репозиторий: https://clc.to/brfm8g
Менеджер данных: как новая роль изменила подход к работе с ML
В статье разберём
🔹 Кто такой менеджер данных и какие у него задачи.
🔹 Как эта роль помогает ML-инженерам.
🔹 В каких случаях компании стоит задуматься о найме.
🔹 Как найти подходящего кандидата.
Подробнее по ссылке: https://clc.to/teOZ8w
В статье разберём
🔹 Кто такой менеджер данных и какие у него задачи.
🔹 Как эта роль помогает ML-инженерам.
🔹 В каких случаях компании стоит задуматься о найме.
🔹 Как найти подходящего кандидата.
Подробнее по ссылке: https://clc.to/teOZ8w
🔥 Hugging Face курс по практическому изучению агентов
На курсе обещают:
🔹 Теорию — разберут, что такое агенты, какие они бывают и как обучить LLM взаимодействовать с окружающей средой.
🔹 Практику — научат создавать агентов для реальных задач: от автоматизации SQL-запросов до генерации кода и анализа документов.
Запись открыта для всех — зарегистрироваться можно здесь.
На курсе обещают:
🔹 Теорию — разберут, что такое агенты, какие они бывают и как обучить LLM взаимодействовать с окружающей средой.
🔹 Практику — научат создавать агентов для реальных задач: от автоматизации SQL-запросов до генерации кода и анализа документов.
Запись открыта для всех — зарегистрироваться можно здесь.
👍 Кодирование Хаффмана для сжатия данных без потерь
В эпоху быстрорастущих объемов данных эффективные методы сжатия стали необходимостью. Кодирование Хаффмана — это мощный алгоритм жадного сжатия без потерь, широко используемый в различных приложениях.
📌 Детальная статья с реализацией алгоритма
В эпоху быстрорастущих объемов данных эффективные методы сжатия стали необходимостью. Кодирование Хаффмана — это мощный алгоритм жадного сжатия без потерь, широко используемый в различных приложениях.
📌 Детальная статья с реализацией алгоритма
🔢 Основы квантизации весов
Квантизация весов — это процесс преобразования высокоточных весов нейросети (обычно 32-битных чисел с плавающей запятой) в низкоточные представления (чаще всего 8-битные целые числа).
✅ Это позволяет значительно уменьшить размер модели и снизить потребление памяти, сохраняя при этом высокую производительность.
⚡ Главная сложность — сохранить точность модели, несмотря на снижение разрядности чисел.
Более подробно в статье: https://clc.to/-rZwSA
Квантизация весов — это процесс преобразования высокоточных весов нейросети (обычно 32-битных чисел с плавающей запятой) в низкоточные представления (чаще всего 8-битные целые числа).
✅ Это позволяет значительно уменьшить размер модели и снизить потребление памяти, сохраняя при этом высокую производительность.
⚡ Главная сложность — сохранить точность модели, несмотря на снижение разрядности чисел.
Более подробно в статье: https://clc.to/-rZwSA