Telegram Web
🔥 Эта статья посвящена тонкой настройке больших языковых моделей (LLM)!

🌟 Здесь рассмотрены ключевые этапы настройки, от подготовки данных до развертывания модели, описаны подходы (например, LoRA и DPO) и обсуждаются проблемы, включая оптимизацию производительности, управление данными и использование мультимодальных моделей. Автор подчеркивает перспективы применения LLM и предлагает рекомендации для исследователей и практиков.

📖 Читать: *клик*

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥21
📖 Эта статья представляет SC-MCTS*: новый алгоритм Монте-Карло Tree Search (MCTS) для больших языковых моделей (LLM), который значительно улучшает точность и скорость рассуждений!

🌟 Авторы отмечают, что предыдущие работы по применению MCTS в LLM часто упускали из виду его главный недостаток — медленную скорость по сравнению с Chain of Thought (CoT). Кроме того, ранее MCTS использовался как инструмент для различных задач LLM без глубокого количественного анализа или исследований его компонентов с точки зрения интерпретируемости рассуждений. Наконец, модель вознаграждения, являющаяся ключевым компонентом MCTS, редко подвергалась глубокому изучению или улучшению.

💡 В ответ на эти вызовы авторы провели обширные исследования и количественный анализ компонентов MCTS, выявив их влияние на производительность рассуждений LLM. На основе этих исследований они разработали интерпретируемую модель вознаграждения, основанную на принципе контрастивного декодирования, и достигли среднего улучшения скорости на 51,9% на узел с использованием спекулятивного декодирования. Дополнительно были улучшены стратегии выбора узлов UCT и обратного распространения, что привело к значительному повышению производительности. Используя SC-MCTS* с моделью Llama-3.1-70B, они превзошли o1-mini в среднем на 17,4% на наборе данных Blocksworld для многошаговых рассуждений.

🔗 Ссылка: *клик*

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42👏2
💡 AQLM․rs — сервис для запуска ИИ на пользовательских девайсах, позволяющий сэкономить на вычислительных мощностях. Опенсорс-проект разработал исследователь из научного отдела Яндекса.

С помощью сервиса можно запустить большую языковую модель с 8 млрд параметров на обычном компьютере или смартфоне через интерфейс любого браузера. Скорость ответов нейросети будет зависеть от производительности устройства.

🔗 Ссылка: *клик*

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍3🔥3👎1🤬1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI представила Sora: новую модель для создания видеороликов по текстовому описанию.

Компания OpenAI на онлайн-стриме анонсировала запуск Sora – инструмента для создания видео по текстовому запросу. Sora доступна подписчикам ChatGPT Plus и Pro, с ограничениями по региону (недоступна на территории ЕС и Великобритании), количеству генераций и качеству видео. Plus-пользователи смогут создавать до 5 видео в месяц длиной до 5 секунд в разрешении до 720p.

Pro-подписка позволяет сгенерировать до 500 коротких видео длиной до 20 секунд в разрешении до 1080p. Sora предлагает различные инструменты для редактирования и управления процессом создания видео: Storyboard для покадровой режиссуры и функции для добавления начала, концовки и объединения нескольких видео.
openai.com

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥2
Forwarded from Machinelearning
🌟 TGI v3: Новая архитектура ускоренного инференса LLMs.

TGI v3 — новая версия архитектуры для обработки естественного языка, разработанная Hugging Face. TGI v3 демонстрирует значительный прирост производительности, особенно при работе с длинными запросами.

Улучшения v3:

🟢оптимизированные ядра;
🟢эффективная структура кэширования префиксов;
🟢улучшенное управление вычислительными ресурсами.

Flashinfer и flashdecoding — новые ядра быстрой обработки текста. Оптимизированная структура кэширования позволяет быстро находить совпадения даже для очень длинных запросов.

TGI v3 оценивалась в реалистичных сценариях на коротких и длинные запросах. Результаты тестов показали, что TGI v3 обрабатывает в 3 раза больше токенов, чем vLLM, а скорость обработки увеличилась в 13 раз для запросов длиной 200K+ токенов.

Хотя результаты работы TGI v3 впечатляют, следует учитывать некоторые ограничения:

⚠️ Если в среде не хватает места в kv-кэше, это может привести к конфликту. Чтобы избежать этого эффекта, следует установить ограничение --max-total-tokens.

⚠️ В сценариях, где несколько реплик находятся за одним эндпоинтом рекомендуется использовать балансировку нагрузки на зависимые сеансы, чтобы заставить каждого пользователя отправлять свои запросы на одну и ту же реплику.

🔜 Полная статья с описанием TGI v3 доступна на HF.


🖥 GIthub


@ai_machinelearning_big_data

#AI #ML #LLM #HuggingFace #TGI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43
🚨 Хакеры атаковали Ultralytics YOLO и установили криптомайнеры через PyPI

🐍 Пострадали версии YOLO 8.3.41 и 8.3.42.

📂 Вредоносная библиотека размещает майнер XMRig в папке /tmp/ultralytics_runner и подключается к серверу по адресу connect.consrensys[.]com: 8080.

Гленн Йохер, основатель и генеральный директор Ultralytics, заявил, что заражённые версии были заменены чистой версией 8.3.43. По его словам, атака произошла через два пулл-запроса от пользователя из Гонконга.

🛡 На данный момент неизвестно, ограничились ли хакеры лишь установкой майнера или смогли получить доступ к пользовательским данным. Пользователям, установившим скомпрометированные версии, настоятельно рекомендуется провести глубокое сканирование системы.
🔥4👍32
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Omegance — ИИ-инструмент, который может контролировать уровни детализации в синтезе на основе диффузии, используя всего один параметр!

🔐 Лицензия: S-Lab 1.0


🔗 Страница проекта: *клик*
🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍43
👩‍💻 pydantic-ai — это проект, который интегрирует возможности Pydantic (популярной библиотеки для валидации данных и работы с моделями данных в Python) с искусственным интеллектом!

🌟 Он предоставляет инструменты для создания и использования моделей данных, которые взаимодействуют с искусственным интеллектом.

🌟 С помощью этого проекта можно более эффективно обрабатывать и валидировать данные, которые поступают из моделей ИИ, а также использовать возможности Pydantic для работы с типами данных и обеспечением их правильности в контексте AI-приложений.

🔐 Лицензия: MIT

🖥 Github

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥3👎1😁1🤔1
Media is too big
VIEW IN TELEGRAM
🔥 Курс Математика Машинного обучения: Что такое тензоры.

📌 Видео
📌Colab с кодом

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍112🔥2
🔍 Perplexity Search — инструмент для построения поискового движка, вдохновленного Perplexity AI!

🌟 Этот проект использует LLM и интеграцию с Google Search для обработки пользовательских запросов. После анализа запроса инструмент формирует поисковый запрос, извлекает контекст из релевантных веб-страниц и с помощью LLM создает ответ. Это позволяет получить консолидированную и информативную информацию из различных источников, обеспечивая автоматическую генерацию текста на основе найденных данных.

🌟 Проект предназначен для разработчиков, изучающих интеграцию языковых моделей в поисковые приложения. Реализация минималистична и предоставляет базовый функционал, что делает её полезной для понимания архитектуры подобных систем. Репозиторий может быть использован как стартовая точка для создания кастомизированных поисковых решений.

🔐 Лицензия: MIT

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4👍2
Forwarded from Machinelearning
🌟 POINTS1.5: VLM от WeChat.

POINTS1.5 - усовершенствованная версия VLM POINTS1.0, построенная по принципу LLaVA (визуальный энкодер+LLM) на базе Qwen2.5-7B-Instruct.

В отличие от предыдущей версии, где использовался энкодер изображений CLIP, POINTS1.5 использует энкодер NaViT, который позволяет модели обрабатывать изображения различного разрешения без необходимости их разделения.

Для повышения качества модели были применены методы фильтрации данных для обучения. Данные, не требующие анализа изображения для ответа на вопрос и содержащие грамматические ошибки, были удалены.

Обучение POINTS1.5 выполнялось в два этапа: предварительное обучение и настройка на выполнение визуальных инструкций. На этапе предварительного обучения проектор и LLM обучались совместно.

На этапе настройки на выполнение визуальных инструкций использовались специализированные наборы данных, которые обучают модель понимать инструкции, связанные с изображениями.

POINTS1.5 была протестирована на бенчмарках MMBench, MMMU, MathVista, HallucinationBench, OCRBench, MMVet, ChartQA, MME, LLaVA-wild, SEEDBench, ScienceQA, MATH-Vision и MathVerse и показала высокие результаты, особенно в задачах, требующих математических навыков.

Модели семейства POINTS могут быть запущены в режиме model soup (совместный запуск нескольких моделей, настроенных с разными наборами инструкций для получения итоговой "усредненной" модели) и CATTY (стратегия разбиения изображения большого разрешения на небольшие фрагменты одинакового размера).

▶️Локальная установка и пример инференса с Transformers:


# Clone repo
git clone https://github.com/WePOINTS/WePOINTS.git

# Install required packages
cd WePOINTS
pip install -e .

# Inference example
from transformers import AutoModelForCausalLM, AutoTokenizer
from wepoints.utils.images import Qwen2ImageProcessorForPOINTSV15
import torch
from PIL import Image
import requests
from io import BytesIO


model_path = 'WePOINTS/POINTS-1-5-Qwen-2-5-7B-Chat'
model = AutoModelForCausalLM.from_pretrained(model_path,
trust_remote_code=True,
torch_dtype=torch.float16,
device_map='cuda')
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
image_processor = Qwen2ImageProcessorForPOINTSV15.from_pretrained(model_path)

image_url = '%link to image%'
response = requests.get(image_url)
image_data = BytesIO(response.content)
pil_image = Image.open(image_data)
pil_image = pil_image.save('image.jpg')
prompt = 'please describe the image in detail'

content = [
dict(type='image', image='image.jpg'),
dict(type='text', text=prompt)
]
messages = [
{
'role': 'user',
'content': content
}
]
generation_config = {
'max_new_tokens': 1024,
'temperature': 0.0,
'top_p': 0.0,
'num_beams': 1,
}
response = model.chat(
messages,
tokenizer,
image_processor,
generation_config
)
print(response)


📌Лицензирование: Apache 2.0 License.


Модель
Arxiv
GitHub
Руководство по Prompt Engineering


@ai_machinelearning_big_data

#AI #ML #VLM #WePOINTS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
2025/07/14 12:39:07
Back to Top
HTML Embed Code: