Forwarded from Machinelearning
TGI v3 — новая версия архитектуры для обработки естественного языка, разработанная Hugging Face. TGI v3 демонстрирует значительный прирост производительности, особенно при работе с длинными запросами.
Улучшения v3:
Flashinfer
и flashdecoding
— новые ядра быстрой обработки текста. Оптимизированная структура кэширования позволяет быстро находить совпадения даже для очень длинных запросов.TGI v3 оценивалась в реалистичных сценариях на коротких и длинные запросах. Результаты тестов показали, что TGI v3 обрабатывает в 3 раза больше токенов, чем vLLM, а скорость обработки увеличилась в 13 раз для запросов длиной 200K+ токенов.
Хотя результаты работы TGI v3 впечатляют, следует учитывать некоторые ограничения:
⚠️ Если в среде не хватает места в kv-кэше, это может привести к конфликту. Чтобы избежать этого эффекта, следует установить ограничение
--max-total-tokens.
⚠️ В сценариях, где несколько реплик находятся за одним эндпоинтом рекомендуется использовать балансировку нагрузки на зависимые сеансы, чтобы заставить каждого пользователя отправлять свои запросы на одну и ту же реплику.
@ai_machinelearning_big_data
#AI #ML #LLM #HuggingFace #TGI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤3
🚨 Хакеры атаковали Ultralytics YOLO и установили криптомайнеры через PyPI
🐍 Пострадали версии YOLO 8.3.41 и 8.3.42.
📂 Вредоносная библиотека размещает майнер XMRig в папке /tmp/ultralytics_runner и подключается к серверу по адресу connect.consrensys[.]com: 8080.
Гленн Йохер, основатель и генеральный директор Ultralytics, заявил, что заражённые версии были заменены чистой версией 8.3.43. По его словам, атака произошла через два пулл-запроса от пользователя из Гонконга.
🛡 На данный момент неизвестно, ограничились ли хакеры лишь установкой майнера или смогли получить доступ к пользовательским данным. Пользователям, установившим скомпрометированные версии, настоятельно рекомендуется провести глубокое сканирование системы.
🐍 Пострадали версии YOLO 8.3.41 и 8.3.42.
📂 Вредоносная библиотека размещает майнер XMRig в папке /tmp/ultralytics_runner и подключается к серверу по адресу connect.consrensys[.]com: 8080.
Гленн Йохер, основатель и генеральный директор Ultralytics, заявил, что заражённые версии были заменены чистой версией 8.3.43. По его словам, атака произошла через два пулл-запроса от пользователя из Гонконга.
🛡 На данный момент неизвестно, ограничились ли хакеры лишь установкой майнера или смогли получить доступ к пользовательским данным. Пользователям, установившим скомпрометированные версии, настоятельно рекомендуется провести глубокое сканирование системы.
🔥4👍3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍4❤3
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤3🔥3👎1😁1🤔1
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4👍2
Forwarded from Machinelearning
POINTS1.5 - усовершенствованная версия VLM POINTS1.0, построенная по принципу LLaVA (визуальный энкодер+LLM) на базе Qwen2.5-7B-Instruct.
В отличие от предыдущей версии, где использовался энкодер изображений CLIP, POINTS1.5 использует энкодер NaViT, который позволяет модели обрабатывать изображения различного разрешения без необходимости их разделения.
Для повышения качества модели были применены методы фильтрации данных для обучения. Данные, не требующие анализа изображения для ответа на вопрос и содержащие грамматические ошибки, были удалены.
Обучение POINTS1.5 выполнялось в два этапа: предварительное обучение и настройка на выполнение визуальных инструкций. На этапе предварительного обучения проектор и LLM обучались совместно.
На этапе настройки на выполнение визуальных инструкций использовались специализированные наборы данных, которые обучают модель понимать инструкции, связанные с изображениями.
POINTS1.5 была протестирована на бенчмарках MMBench, MMMU, MathVista, HallucinationBench, OCRBench, MMVet, ChartQA, MME, LLaVA-wild, SEEDBench, ScienceQA, MATH-Vision и MathVerse и показала высокие результаты, особенно в задачах, требующих математических навыков.
Модели семейства POINTS могут быть запущены в режиме model soup (совместный запуск нескольких моделей, настроенных с разными наборами инструкций для получения итоговой "усредненной" модели) и CATTY (стратегия разбиения изображения большого разрешения на небольшие фрагменты одинакового размера).
# Clone repo
git clone https://github.com/WePOINTS/WePOINTS.git
# Install required packages
cd WePOINTS
pip install -e .
# Inference example
from transformers import AutoModelForCausalLM, AutoTokenizer
from wepoints.utils.images import Qwen2ImageProcessorForPOINTSV15
import torch
from PIL import Image
import requests
from io import BytesIO
model_path = 'WePOINTS/POINTS-1-5-Qwen-2-5-7B-Chat'
model = AutoModelForCausalLM.from_pretrained(model_path,
trust_remote_code=True,
torch_dtype=torch.float16,
device_map='cuda')
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
image_processor = Qwen2ImageProcessorForPOINTSV15.from_pretrained(model_path)
image_url = '%link to image%'
response = requests.get(image_url)
image_data = BytesIO(response.content)
pil_image = Image.open(image_data)
pil_image = pil_image.save('image.jpg')
prompt = 'please describe the image in detail'
content = [
dict(type='image', image='image.jpg'),
dict(type='text', text=prompt)
]
messages = [
{
'role': 'user',
'content': content
}
]
generation_config = {
'max_new_tokens': 1024,
'temperature': 0.0,
'top_p': 0.0,
'num_beams': 1,
}
response = model.chat(
messages,
tokenizer,
image_processor,
generation_config
)
print(response)
📌Лицензирование: Apache 2.0 License.
▪Модель
▪Arxiv
▪GitHub
▪Руководство по Prompt Engineering
@ai_machinelearning_big_data
#AI #ML #VLM #WePOINTS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Media is too big
VIEW IN TELEGRAM
👍4❤2👎2🔥2
Media is too big
VIEW IN TELEGRAM
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3🔥3