MTS AI идет в Open Source
MTS AI выпустила модель Cotype Nano – открытую языковую модель для решения бизнес-задач на русском языке.
Она обрабатывает до 32,000 токенов за раз, запускается локально на персональных устройствах и подходит для анализа данных, создания контента, перевода и поиска в большом массиве информации.
По бенчмаркам Ru Arena Hard модель — лидер в своём классе (30.2). Доступна бесплатно с возможностью использования в коммерческих целях. Скачать по ссылке.
Подробные технические характеристики — на Хабре.
MTS AI выпустила модель Cotype Nano – открытую языковую модель для решения бизнес-задач на русском языке.
Она обрабатывает до 32,000 токенов за раз, запускается локально на персональных устройствах и подходит для анализа данных, создания контента, перевода и поиска в большом массиве информации.
По бенчмаркам Ru Arena Hard модель — лидер в своём классе (30.2). Доступна бесплатно с возможностью использования в коммерческих целях. Скачать по ссылке.
Подробные технические характеристики — на Хабре.
🔥11🤔8❤2👍1
Forwarded from Machinelearning
Хороших книг по обучению с подкреплением (Reinforcement Learning, RL) уже выпущено достаточно, однако есть пробел между продвинутыми учебниками, в которых основное внимание уделяется одному или нескольким аспектам, и более общими книгами, в которых предпочтение отдается удобочитаемости, а не сложности.
Авторы книги, люди с опытом работы в CS и инжиниринга, подают тему RL в строгом и академическом стиле. Книга основана на конспектах лекций для углубленного курса бакалавриата, который преподается авторами в Тель-Авивском университете.
К этой книге дополнительно идет брошюра с упражнениями и экзаменационными вопросами, которые помогут освоить материал книги на практике. Эти упражнения разрабатывались на протяжении нескольких лет.
Математическая модель книги - Марковский процесс принятия решений (Markov Decision Process, MDP). Основное внимание уделяется: последовательному принятию решений, выбору действий, долгосрочному эффекту от этих действий и разница между немедленным вознаграждением и долгосрочной выгодой.
Тематически книга состоит из двух частей – "Планирование" и "Обучение".
@ai_machinelearning_big_data
#AI #ML #RL #MDP #Book
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10👍6❤4
⚡️ RL за 185 строках с помощью numpy
Блокнот, в котором все подробно описано
- код лаконичен, удобочитаем и снабжен множеством комментариев
- в нем используется только numpy
- хорошая отправная точка для изучения PPO
- заметки, которые помогут в обучении
📌 Ссылка на коллаб
@machinelearning_interview
Блокнот, в котором все подробно описано
- код лаконичен, удобочитаем и снабжен множеством комментариев
- в нем используется только numpy
- хорошая отправная точка для изучения PPO
- заметки, которые помогут в обучении
📌 Ссылка на коллаб
@machinelearning_interview
🔥13👍7❤4
Forwarded from Machinelearning
QwQ (Qwen with Questions) – экспериментальная исследовательская модель, разработанная Qwen Team с фокусом на развитие способности рассуждения.
QwQ отличается любознательностью, подходя к каждой проблеме – будь то математика, программирование или знания о мире – с подлинным удивлением и сомнением. Прежде чем остановиться на каком-либо ответе, модель подвергает сомнению свои собственные предположения, исследуя разные пути рассуждений в поисках более глубокой истины.
QwQ-32B-Preview, предварительная версия модели, которая демонстрирует аналитические способности в математике и программировании, показывая топовые результаты в тестах:
Архитектура QwQ основана на
transformers
с использованием RoPE, SwiGLU, RMSNorm и Attention QKV bias. Модель имеет 32.5 млрд. параметров, 64 слоя и 40 attention heads для Q и 8 для KV. Контекст модели - 32 768 токенов.⚠️ Как у любого эксперимента, у QwQ есть ограничения:
⚠️ Сообществом LM Studio опубликованы квантованные версии в формате GGUF в разрядности от 3-bit (17.2 Gb) до 8-bit (34.8 GB), совместимые для запуска в
llama.cpp
(release b4191) и LM Studio.from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Qwen/QwQ-32B-Preview"
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)
prompt = "How many r in strawberry."
messages = [
{"role": "system", "content": "You are a helpful and harmless assistant. You are Qwen developed by Alibaba. You should think step-by-step."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=512
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
@ai_machinelearning_big_data
#AI #ML #LLM #QwQ #Qwen
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤7🥴1
На Хабре вышла статья о современных подходах к оценке языковых моделей. Традиционно используются академические методы оценки (школьные тесты, профэкзамены) и специальные бенчмарки вроде COPA, PIQA для проверки базового понимания контекста, но они не отражают реальной ценности моделей в бизнес-задачах — способности к диалогу, переводу или генерации идей.
Для решения этой проблемы, например, в Яндексе разрабатывают внутренние бенчмарки под каждую практическую задачу YandexGPT, учитывая, что стандартные тесты подвержены протечкам данных и быстро устаревают. Для комплексной оценки привлекаются AI-тренеры — специалисты со строгим отбором по навыкам фактчекинга.
Ключевой вывод: нет универсального метода оценки, необходимы постоянный анализ данных и ручная разметка.
📌 Оригинал
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤6🔥3👌2
Forwarded from Machinelearning
PRIME Intellect опубликовала INTELLECT-1 (Instruct + Base), первую языковую модель с 10 млрд. параметров, совместно обученную за 50 суток 30 участниками эксперимента по всему миру.
PRIME Intellect использовала собственную платформу PRIME, разработанную для решения главных проблем децентрализованного обучения: ненадежность сети и динамическое управление вычислительными узлами.
Платформа использовала сеть из 112 GPU H100 на 3 континентах и достигла коэффициента использования вычислений в 96% при оптимальных условиях.
Корпус обучения составлял на 1 трлн. токенов публичных датасетов с процентным соотношением: 55% fineweb-edu, 10% fineweb, 20% Stack V1, 10% dclm-baseline, 5% open-web-math.
INTELLECT-1 достигла точности 37,5% на тесте MMLU и 72,26% на HellaSwag и превзошла несколько других моделей с открытым исходным кодом в WinoGrande с результатом 65,82%.
Хотя эти показатели немного отстают от современных популярных моделей, результаты эксперимента - важнейший шаг к демократизации разработки ИИ и предотвращению консолидации возможностей ИИ в рамках нескольких организаций.
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
torch.set_default_device("cuda")
model = AutoModelForCausalLM.from_pretrained("PrimeIntellect/INTELLECT-1")
tokenizer = AutoTokenizer.from_pretrained("PrimeIntellect/INTELLECT-1")
input_text = "%prompt%"
input_ids = tokenizer.encode(input_text, return_tensors="pt")
output_ids = model.generate(input_ids, max_length=50, num_return_sequences=1)
output_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)
print(output_text)
@ai_machinelearning_big_data
#AI #ML #LLM #Decentralizated
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤14👍3
#deeplearning #machinelearning
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤5🔥4
Media is too big
VIEW IN TELEGRAM
🎥 HunyuanVideo: Фреймворк для генерации видео 🔥 Jupyter Notebook
🌐page: https://aivideo.hunyuan.tencent.com
🧬code: https://github.com/Tencent/HunyuanVideo
💡jupyter: https://github.com/camenduru/hunyuan-video-jupyter https://x.com/camenduru/status/1863853010251571492/video/1
@machinelearning_interview
🌐page: https://aivideo.hunyuan.tencent.com
🧬code: https://github.com/Tencent/HunyuanVideo
💡jupyter: https://github.com/camenduru/hunyuan-video-jupyter https://x.com/camenduru/status/1863853010251571492/video/1
@machinelearning_interview
🔥11👍3❤2👎1
🎓 A smol course
Hugging Face запустили бесплатный открытый курс по файнтюнингу моделей. В курсе рассматриваются теория и практические аспекты работы с такими методами, как LoRA, супервайзед-файнтюнинг, DPO, ORPO и другие техники для настройки моделей под конкретные задачи.
Примеры в курсе основаны на использовании модели SmolLM2, а сам материал ориентирован на работу с локальными моделями, однако полученные знания могут быть легко применены к другим моделям.
Это полезный и интересный ресурс, особенно для тех, кто занимается файнтюнингом на практике или изучает эту тему
⚡️ Github
@machinelearning_interview
Hugging Face запустили бесплатный открытый курс по файнтюнингу моделей. В курсе рассматриваются теория и практические аспекты работы с такими методами, как LoRA, супервайзед-файнтюнинг, DPO, ORPO и другие техники для настройки моделей под конкретные задачи.
Примеры в курсе основаны на использовании модели SmolLM2, а сам материал ориентирован на работу с локальными моделями, однако полученные знания могут быть легко применены к другим моделям.
Это полезный и интересный ресурс, особенно для тех, кто занимается файнтюнингом на практике или изучает эту тему
⚡️ Github
@machinelearning_interview
👍15🔥10❤3
Forwarded from Machinelearning
Unsloth представил практический метод динамического 4-битного квантования VLM, который решает проблему снижения точности популярных алгоритмов квантования AWQ, Bitsandbytes, GPTQ и HQQ.
В эксперименте использовался Bitsandbytes в качестве основы для всех линейных слоев, но квантование определенных параметров было динамически отключено. Этот подход позволил добиться значительного повышения точности при использовании всего на 10% больше VRAM по сравнению с стандартным 4-битным квантованием Bitsandbytes.
В результате, этот метод позволяет сохранить точность модели, близкую к 16-битной точности, при значительном сокращении размера модели.
Тестирование на VL-моделях Llama 3.2 Vision, Qwen2 Vision и Pixtral, показали значительные преимущества по сравнению со стандартным 4-битным квантованием. Например, квантование Qwen2 Vision 2B до 4 бит приводило к полной поломке модели, в то время как метод динамического квантования позволял восстановить точность при увеличении использования памяти всего на 450 МБ.
Аналогичным образом, получилось восстановить точность Llama 3.2 Vision 11B и Pixtral 12B, которые также деградировали на стандартном 4-битном квантовании.
⚠️ К каждой модели в Model Card можно найти блокнот для запуска в Google Collab и созданные сообществом GGUF-версии.
@ai_machinelearning_big_data
#AI #ML #VLM #Unsolth #Quantization
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤4👍3
🔥 Microsoft выпустила Trellis!
Trellis - это новая 3D-модель, которая создает высококачественные 3D-объекты в таких форматах, как Radiance Fields,, 3D-гауссианы и Мэши.
▪Github: github.com/Microsoft/TRELLIS
▪Demo: https://huggingface.co/spaces/JeffreyXiang/TRELLIS
@machinelearning_interview
Trellis - это новая 3D-модель, которая создает высококачественные 3D-объекты в таких форматах, как Radiance Fields,, 3D-гауссианы и Мэши.
▪Github: github.com/Microsoft/TRELLIS
▪Demo: https://huggingface.co/spaces/JeffreyXiang/TRELLIS
@machinelearning_interview
👍10❤5🔥4
Курс включает подкасты, текстовые материалы и практические задания, которые помогут разобраться в следующих темах:
— Основах LLM: от трансформеров до методов тонкой настройки;
— Внедрении и использовании векторных хранилищ/баз данных;
— Создании и работе с ИИ-агентами;
— Специализации LLM для конкретных областей знаний, таких как медицина;
— MLOps для генеративного ИИ.
@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13🔥9👍4
📚Decisions&Dragons: полезный гайд по обучению с подкреплением
В нем вы найдете вопросы и ответы по ключевым темам обучения с подкреплением.
Внутри вы найдете:
▪️Что такое горизонт в обучении с подкреплением?
▪️Почему Q-learning не работает с непрерывными действиями?
▪️В чём разница между model-based и model-free обучением с подкреплением?
📌 Полный гайд
В нем вы найдете вопросы и ответы по ключевым темам обучения с подкреплением.
Внутри вы найдете:
▪️Что такое горизонт в обучении с подкреплением?
▪️Почему Q-learning не работает с непрерывными действиями?
▪️В чём разница между model-based и model-free обучением с подкреплением?
📌 Полный гайд
👍10❤1
Исследователь Яндекса разработал сервис для запуска языковых моделей с 8 млрд параметров на пользовательских девайсах.
Автор написал инференс модели Llama 3.1 8B, работающий в браузере на WebAssembly без использования GPU. Для этого он применил технологию сжатия нейросетей AQLM, которую разработала команда Yandex Research вместе с университетами ISTA и KAUST.
Для примера, скорость ответов нейросети на MacBook Pro M1 составила 1,5 токена в секунду или 3–4 символа.
@ai_machinelearning_big_data
#AI #ML #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🔥3❤2