tgoop.com »
United States »
Библиотека дата-сайентиста | Data Science, Machine learning, анализ данных, машинное обучение » Telegram Web
Forwarded from Proglib.academy | IT-курсы
🤼 Генеративно-состязательная нейросеть: ваша первая GAN-модель на PyTorch
Подробная инструкция построения генеративно-состязательных нейросетей (GAN) на примере двух моделей, реализованных с помощью фреймворка глубокого обучения PyTorch в нашей статье.👇
🔗 Статья
У нас есть курс как для начинающих программистов, так и для тех, кто уже шарит:
🔵 Алгоритмы и структуры данных
Подробная инструкция построения генеративно-состязательных нейросетей (GAN) на примере двух моделей, реализованных с помощью фреймворка глубокого обучения PyTorch в нашей статье.
🔗 Статья
У нас есть курс как для начинающих программистов, так и для тех, кто уже шарит:
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓Turbo-Alignment — библиотека для дообучения и элайнмента LLM от Т-Банка
Основные фичи:
📊 Включает необходимые метрики, в том числе self-bleu.
🛠 Упрощённый процесс деплоя новых методов.
⚡️ Оптимизирована для быстрого инференса с vLLM.
🌐 Поддерживает мультимодальность.
🔍 Есть пайплайн для RAG.
🔗 Ссылка на библиотеку
Основные фичи:
📊 Включает необходимые метрики, в том числе self-bleu.
🛠 Упрощённый процесс деплоя новых методов.
⚡️ Оптимизирована для быстрого инференса с vLLM.
🌐 Поддерживает мультимодальность.
🔍 Есть пайплайн для RAG.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Master_SQL.pdf
754.9 KB
✍️ Шпаргалка по SQL
Внутри:
▪️основные виды запросов;
▪️CASE и оконные функции;
▪️вложенные запросы;
▪️виды join;
▪️примеры запросов.
Внутри:
▪️основные виды запросов;
▪️CASE и оконные функции;
▪️вложенные запросы;
▪️виды join;
▪️примеры запросов.
👍9
This media is not supported in your browser
VIEW IN TELEGRAM
👀 Это наглядная визуализация того, как работает написанный Карпаты прямой проход по gpt-2.
❤7
Forwarded from Proglib.academy | IT-курсы
Вот подборка книг для изучения Data Science.
Начать бывает сложно и пугает английский, но эти книги помогут разобраться в основах и понять ключевые концепции. Если у вас есть вопросы или нужны рекомендации, пишите в комментариях — давайте учиться вместе
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤3
✍️ Что такое косинусное сходство (cosine similarity) и какие альтернативные методы существуют?
Cosine similarity используется для оценки сходства двух векторов. В сущности, это косинус угла между двумя векторами. Значения cosine similarity варьируются от -1 до 1. Однако для большинства задач с положительными векторами (например, текстовые данные, векторы признаков), значения лежат в диапазоне от 0 до 1. При этом:
▪️ 1 означает полное совпадение (вектора направлены в одну и ту же сторону).
▪️ 0 указывает на отсутствие сходства (вектора перпендикулярны друг другу).
▪️ -1 указывает на полную противоположность (вектора направлены в противоположные стороны).
Как ещё можно оценивать сходство векторов? Вот некоторые способы:
▫️Евклидово расстояние;
▫️Манхэттенское расстояние;
▫️Расстояние Чебышева.
Подробнее о них и о том, как они применимы в LLM, читайте в статье 👈
Cosine similarity используется для оценки сходства двух векторов. В сущности, это косинус угла между двумя векторами. Значения cosine similarity варьируются от -1 до 1. Однако для большинства задач с положительными векторами (например, текстовые данные, векторы признаков), значения лежат в диапазоне от 0 до 1. При этом:
▪️ 1 означает полное совпадение (вектора направлены в одну и ту же сторону).
▪️ 0 указывает на отсутствие сходства (вектора перпендикулярны друг другу).
▪️ -1 указывает на полную противоположность (вектора направлены в противоположные стороны).
Как ещё можно оценивать сходство векторов? Вот некоторые способы:
▫️Евклидово расстояние;
▫️Манхэттенское расстояние;
▫️Расстояние Чебышева.
Подробнее о них и о том, как они применимы в LLM, читайте в статье 👈
👍6🙏5
👾 Подборка материалов по машинному обучению и анализу данных
🔹An Illustrated Guide to Superlearning
Под Superlearning здесь имеется в виду метод объединение множества отдельных алгоритмов для создания единой модели.
🔹Evaluating and enhancing probabilistic reasoning in language models
В этой статье исследователи Google изучают, способны ли LLM к вероятностному мышлению.
🔹Обзор платформы Kaggle для начинающих: от состязаний до менторской программы
🔹Sabotage Evaluations for Frontier Models
Исследователи из Anthropic пытались понять, могут ли LLM вводить пользователей в заблуждение и манипулировать системами оценок.
🔹An Illustrated Guide to Superlearning
Под Superlearning здесь имеется в виду метод объединение множества отдельных алгоритмов для создания единой модели.
🔹Evaluating and enhancing probabilistic reasoning in language models
В этой статье исследователи Google изучают, способны ли LLM к вероятностному мышлению.
🔹Обзор платформы Kaggle для начинающих: от состязаний до менторской программы
🔹Sabotage Evaluations for Frontier Models
Исследователи из Anthropic пытались понять, могут ли LLM вводить пользователей в заблуждение и манипулировать системами оценок.
❤2
Forwarded from Библиотека задач по Data Science | тесты, код, задания
У нас есть модель линейной регрессии с регуляризацией. Какое влияние оказывает увеличение lambda на смещение и дисперсию?
Anonymous Quiz
18%
Увеличивает смещение, увеличивает дисперсию
47%
Увеличивает смещение, уменьшает дисперсию
22%
Уменьшает смещение, увеличивает дисперсию
13%
Уменьшает смещение, уменьшает дисперсию
❤3👍1
🧑💻 Статьи для IT: как объяснять и распространять значимые идеи
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
Напоминаем, что у нас есть бесплатный курс для всех, кто хочет научиться интересно писать — о программировании и в целом.
Что: семь модулей, посвященных написанию, редактированию, иллюстрированию и распространению публикаций.
Для кого: для авторов, копирайтеров и просто программистов, которые хотят научиться интересно рассказывать о своих проектах.
👉Материалы регулярно дополняются, обновляются и корректируются. А еще мы отвечаем на все учебные вопросы в комментариях курса.
❤1
Реддитор рассказал, что является родственником одного из первоначальных разработчиков Jupyter Notebooks и Jupyter lab. Он нашёл этот ПК, когда разбирал кладовку дома.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🥰10👍6🔥2❤1
Forwarded from Библиотека нейросетей | ChatGPT, Midjourney, DeepSeek, Sora
⚡️Разыгрываем флагманский смартфон
«Библиотека программиста» разыгрывает один из трех смартфонов на выбор:
🔹Samsung Galaxy S24 Ultra на 1 ТБ
🔹Xiaomi 14 Ultra на 512 ГБ
🔹iPhone 16 Pro Max на 512 ГБ
🔥 А еще 99 участников розыгрыша получат скидку 50% на наш курс Базовые модели ML и приложения!
Промокод будет действителен до 20 ноября.
Условия просты:
→ подписаться на Библиотека нейротекста
→ подписаться на Библиотека нейрозвука
→ подписаться на Библиотека нейрокартинок
→ нажать на кнопку «Участвовать» под этим постом
Итоги появятся 30 октября в 20:00 по московскому времени в нашем канале Библиотека программиста. Затем мы свяжемся с победителем, который сам выберет смартфон. Тем, кто получит промокод, мы вышлем его в течение недели после окончания розыгрыша.
⚠️ Убедитесь, что вам можно написать в личные сообщения или следите за результатами — если мы не сможем с вами связаться, то не сможем и отправить приз. Доставить мы можем только в города России и Беларуси.
«Библиотека программиста» разыгрывает один из трех смартфонов на выбор:
🔹Samsung Galaxy S24 Ultra на 1 ТБ
🔹Xiaomi 14 Ultra на 512 ГБ
🔹iPhone 16 Pro Max на 512 ГБ
🔥 А еще 99 участников розыгрыша получат скидку 50% на наш курс Базовые модели ML и приложения!
Промокод будет действителен до 20 ноября.
Условия просты:
→ подписаться на Библиотека нейротекста
→ подписаться на Библиотека нейрозвука
→ подписаться на Библиотека нейрокартинок
→ нажать на кнопку «Участвовать» под этим постом
Итоги появятся 30 октября в 20:00 по московскому времени в нашем канале Библиотека программиста. Затем мы свяжемся с победителем, который сам выберет смартфон. Тем, кто получит промокод, мы вышлем его в течение недели после окончания розыгрыша.
⚠️ Убедитесь, что вам можно написать в личные сообщения или следите за результатами — если мы не сможем с вами связаться, то не сможем и отправить приз. Доставить мы можем только в города России и Беларуси.
😭💰⬆️ Shut up and give my money: как просить повышения зарплаты
Рассказываем, когда и как правильно поднимать вопрос о повышении зарплаты. Проверенные тактики, аргументы и советы.
Углубляемся в вопрос и рассказываем, на основании чего просить повышения и какие аргументы использовать, а главное — какие доводы точно не подойдут.
📖 Читать статью
📖 Зеркало
Рассказываем, когда и как правильно поднимать вопрос о повышении зарплаты. Проверенные тактики, аргументы и советы.
Углубляемся в вопрос и рассказываем, на основании чего просить повышения и какие аргументы использовать, а главное — какие доводы точно не подойдут.
📖 Читать статью
📖 Зеркало
🎉5❤3