Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on null in /var/www/tgoop/function.php on line 65
- Telegram Web
Telegram Web
Vikhr Borealis - первая русскоязычная открытая audio llm

Мы долго и не очень успешно развивали свой tts - Salt, от него исторически осталось довольно много данных и наработок, мы решили - чо бы не сварить asr + llm как модно?

Ну и сварили. Архитектурно - whisper + qwen, учили на 7к часов аудио только адаптер+llm, сейчас работает только в ASR режиме, позже возможно довезем инструктивный режим. Так же выйдет бенчмарк для русского asr, он пока в доработке.
Блог так же выйдет, там будут небольшие аблейшены по данным

Модель в данный момент бьет whisperы на русском и на части бенчей лучше чем gigam.

Модель
Сolab поиграться
👍43🔥3413👎1😱1
Forwarded from LLM Arena
📈Рейтинги LLM теряют доверие

Наше исследование (21 июля — 10 августа 2025, практики и предприниматели в сфере ИИ) показало реальную картину: команды всё меньше ориентируются на абстрактные бенчмарки и всё чаще принимают решения через собственные тесты.

👀 Ключевые данные:

— 82,2% проводят собственные проверки и используют бенчмарки только как дополнительный сигнал.

— 26,7% принципиально не опираются на рейтинги.

— Лишь около 18% обращаются к агрегаторам по типу llmstats

Главные критерии выбора AI-решений для продуктов: качество + цена + скорость, устойчивость без галлюцинаций и совместимость с инфраструктурой

📄Отдельная ценность исследования — мы постарались отразить мнение участников рынка таким, какое оно есть: с аргументами «за» и «против», со скепсисом и практическими отзывами. Полный отчёт с графиками, аналитикой и комментариями уже доступен на сайте.

P.S. Огромная благодарность всем, кто помогал собирать данные для исследования, а также авторам и энтузиастам, помогающим его популязировать. Замечания по исследованию и предложения по будущим рисёрч-проектам можно оставить здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍129🤔2😁1
Vikhr models
Для нашего бенчмарка Doom вышел блог на хабр
Поздравляю причастных!
🔥48🍾11🏆5👍1
🎙 Vikhr Borealis ● Speech-to-Text ● Транскрипция русской речи в текст ● Portable by NerualDreming

Ссылка на оригинальный релиз: https://huggingface.co/Vikhrmodels/Borealis
Репакер: #NerualDreming
Дата обновления: 25 сентября 2025
Версия: 1.0
Категории: #stt, #speechtotext, #audiollm
Платформа: #Windows
Место на диске: 20 ГБ
Системные требования: NVIDIA GPU с не менее 6 ГБ VRAM
Совместимость: #Nvidia

🖥 Описание софта
Borealis - это первая audio llm c ASR для русского языка от команды Vikhr. Важным отличием от других моделей является поддержка пунктуации в распознанных аудио. По замерам команды Vikhr, Borealis показывает меньшее количество ошибок и лучше соблюдает пунктуацию по сравнению с Whisper.
В этой портативной сборке я сделал удобную оболочку, в которую можно загрузить как аудио, так и видео и легко превратить речь в текст. Давайте поддержим отечественного производителя!


😬 Основные возможности Vikhr Borealis:
🟣 Распознавание речи в текст для русского языка
🟣 Корректная расстановка знаков препинания
🟣 Более низкое количество ошибок по сравнению с аналогами
🟣 Возможность обработки как аудио, так и видео файлов
🟣 Удобный и простой в использовании интерфейс


💿 Установка и запуск:
⁍ Скачайте Установщик или готовое Окружение.
⁍ Распакуйте архив в удобное место (без кириллицы и пробелов в пути).
⁍ Если скачали установщик, запустите файл install.bat и дождитесь окончания установки.
⁍ Для запуска программы используйте файл run_demo.bat.
⁍ Интерфейс приложения автоматически откроется в вашем браузере.


➡️ Скачать Vikhr Borealis Portable (Установщик) - сам скачает и установит все необходимые компоненты.

➡️ Скачать Vikhr Borealis Portable (Готовое окружение) - архив со всеми компонентами - скачает модели после запуска.

💬 Обсудить в чате | ⭐️ Поддержать канал

👾 НЕЙРО-СОФТ — Делаем нейросети доступнее.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2316👍83🎉2
Vistral-24B-Instruct

Vistral - это наша новая флагманская унимодальная LLM представляющая из себя улучшенную версию Mistral-Small-3.2-24B-Instruct-2506 командой VikhrModels, адаптированную преимущественно для русского и английского языков. Удалён визуальный энкодер, убрана мультимодальность. Сохранена стандартная архитектура MistralForCausalLM без изменений в базовой структуре модели.

🔗 Карточка модели: https://huggingface.co/Vikhrmodels/Vistral-24B-Instruct
🔗 GGUF: https://huggingface.co/Vikhrmodels/Vistral-24B-Instruct-GGUF
⚖️ Лицензия: apache-2.0

Сайт: https://vikhr.org
Донаты: Здесь

👥 Авторы: @LakoMoorDev @nlpwanderer
🔥38👍8😱87🤔4👏1
📆GigaChat Audio Day Nizhniy

🚀В начале октября ездили командой речевых технологий в Нижний Новгород с митапом. Поделились нашими разработками, познакомились с интересными ребятами и очень продуктивно провели время в столице закатов.

➡️Записи докладов уже доступны VK | YouTube

🔘Как мы сделали production ASR для новых языков на 10 часах данных (Андрей Кузьменко)
🔘Распознавание речи по спикерам в SaluteSpeech: от моделей и алгоритмов до production-оптимизаций (Никита Ноев и Михаил Кузьмин)
🔘Быстрые команды (Юлия Кокорина и Максим Сурков)
🔘GigaChat Audio: как мы добавили поддержку суммаризации видео длительностью 3 часа в мультимодальной LLM (Григорий Фёдоров)

Смотрите, ставьте лайки, приходите на наши будущие мероприятия: следующее пройдёт в Москве уже в декабре — stay tuned.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥103
⚪️ White Circle

Всем привет, мы делаем лучшую AI safety платформу, чтобы модельки не делали rm -rf без вашего ведома

Про нас:
- Подняли 💸 $10m 💸, инвесторы — топы OpenAI, Anthropic, Deepmind, Mistral, HuggingFace, etc
- Команда из 10 человек с офисом в самом центре Парижа
- Обрабатываем десятки миллионов API запросов в месяц
- 🍴 80-150к USD

Вакансии:
1. FullStack Engineer
Typescript, React, Nextjs, Nodejs, Tailwind, GraphQL, ClickHouse

2. AI Engineer
MoE, multimodality (audio / images), Megatron, distributed training, Triton

3. AI Engineer
Redteaming, agents, rlhf - если у вас нет опыта на mle, но есть опыт swe и построения всякого промптового - позиция для вас


📨 CV → https://forms.gle/XysjrjHgxiRicGsb6
Please open Telegram to view this post
VIEW IN TELEGRAM
🖕19😁11👍6🔥2🤡1😈1💘1
Forwarded from Pavel Zloi
Давно мечтал разобраться с тем как конвертировать в GGUF без потерь в качестве, чтобы оного добиться необходимо использовать калибровочный датасет, но как подружить датасет, GGUF и инструменты квантизации для меня было неведомо.

Поэтому решил изучить тему сам и рассказать вам в моей новенькой публикации "GGUF: квантизация с калибровкой (imatrix)" на Хабр.

UPD. На примере модельки ai-sage/GigaChat-20B-A3B-instruct

#habr #gguf
🔥31👍12🙏3
Forwarded from Krist/Blog
RuQualBench 🐸

Я сделал бенчмарк для оценки качества русского языка в LLM. Подробности:
- Набор из 100 (по умолчанию)/250/500 вопросов по general chat/creative writing доменам.
- LLM as a Judge, но с четкими критериями разметки ответов.
- Упор на типичные для LLM ошибки на русском (перепутанные рода, "китайщина", выдуманные слова).
- Всё под открытой лицензией!

Анализ результатов:
- Лучшими моделями всё еще остаются закрытые (в частности, Sonnet 4.5, Gemini, GPT-4o). Но некоторые открытые очень близки.
- GPT-5 ужасна. Я думал, что она лучше.
- Из открытых моделей Gemma-3-27b-it и Vistral-24B оказались вне конкуренции.
- Ruadapt значительно уменьшает количество ошибок относительно Qwen.
- Qwen3 и GPT-oss очень плохи. Даже хуже, чем я ожидал.
- Qwen3-Next лучше, чем Qwen3. Похоже, туда долили русского языка.
- У DeepSeek V3 мало ошибок, но актуальная V3.2-Exp почти в 2 раза хуже.

Лидерборд, код и данные
🔥389👍7🥰3💩2
Forwarded from Avito. Press room
🚀 Технологическая платформа Авито открывает доступ к собственным ИИ-моделям, в разработку которых компания вложила около полумиллиарда рублей

A-Vibe и A-Vision – это первые российские открытые модели с глубокой оптимизацией под русский язык, специально обученные для e-commerce.

Разработчики, стартапы, бизнес и исследователи получат готовые инструменты для анализа документов, автоматизации контента и создания ИИ-ассистентов. Модели позволят сократить затраты ресурсов до 50% по сравнению с другими открытыми нейросетями. Модели умеют вызывать внешние инструменты (function calling), что позволяет создавать автономные системы и агенты.

A-Vibe заняла первое место среди лёгких нейросетей в популярных открытых тестах: по пониманию русского языка, работе с кодом и решению сложных задач. Нейросети доступны бесплатно по лицензии Apache 2.0 для любого использования.

🎯 Где можно применять:
— Бизнес: автоматизация контента, анализ документов, создание клиентских ассистентов
— Разработка: дообучение под конкретные задачи на собственной инфраструктуре
— Образование: инструмент для обучения и исследований
— Наука: изучение мультимодальных технологий

🎁 Бонус для комьюнити:
Команда Авито также перевела на русский язык 4 международных открытых набора задач для тестирования нейросетей – теперь все российские разработчики смогут использовать их для проверки своих больших языковых моделей.

Модели доступны на Hugging Face с подробной документацией и примерами использования! 🔗
👍21🔥12🤯10🤮7🤔2👀21
Vikhr models
https://sites.google.com/view/mathnlp2025 даже не плохо
Ксюша довезла постер!
🔥41🤗6👍5😁1🌚1
Forwarded from GigaChat
🔥МЫ ПРЕДСТАВЛЯЕМ КРУПНЕЙШИЙ OPEN-SOURCE AI В ЕВРОПЕ 🔥

Мы стремимся не замыкаться в «закрытой» технологии, а строить открытую платформу для всей страны, поэтому мы публикуем веса наших моделей

Что появилось в открытом доступе ↓

🔷 GigaChat Ultra Preview
Самая мощная модель Сбера. Лучше DeepSeek V3.1 и GigaChat Max 2 в русскоязычных задачах. Подходит для бизнеса, аналитики, разработки и дообучения на ваших данных
GitHub | HuggingFace |GitVerse

GigaAM-v3
Пять моделей, которые превращают голос в текст с пунктуацией, понимают акценты, спонтанную речь и даже музыкальные запросы. Подойдут для голосовых ассистентов, контакт-центров, аналитики звонков
GitHub | HuggingFace | GitVerse

🔷 GigaChat Lightning
Лёгкая, компактная и быстрая. Конкурирует с Qwen3-4B, по скорости сравнима с Qwen3-1.7B, но намного умнее и больше по параметрам
GitHub | HuggingFace |GitVerse

🔷 Kandinsky 5.0
Создание фото и видео по тексту. Внутри:
• Image Lite — делает изображения в HD, отлично понимает русский язык и культурный контекст
• Video Pro — создаёт до 10 секунд реалистичного HD-видео. Конкурирует с топовыми мировыми моделями
• Video Lite — облегчённая версия для домашней видеокарты (от 12 ГБ)
➡️ GitHub | GitVerse | Hugging Face | Технический репорт

🔷 K-VAE 1.0
Ускорение генеративного AI. Это технологии, которые «упаковывают» картинки и видео в скрытое пространство, чтобы модели работали быстрее и требовали меньше ресурсов. Лучшие среди открытых аналогов
➡️ GitHub|Hugging Face


Код и веса этих всех моделей теперь доступны всем пользователям по лицензии MIT, в том числе для использования в коммерческих целях
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5812👍8🤡3👏1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Хотите больше информации про наши последние релизы?

10 декабря на «Салют, Гига!» мы подробно расскажем, что сделали за этот год в командах GigaChat, Kandinsky и GigaData (платформы для управления данными, аналитики и поиска в контексте ИИ-моделей и сервисов).
От архитектур и метрик до подходов, решений и планов на будущее.

Будут доклады от инженеров, разборы под капотом, постерная сессия с командами и возможность задать любые технические вопросы тем, кто эти модели создаёт.

Мы делаем формат максимально полезным для тех, кто работает с ML, данными, исследовательскими пайплайнами или инфраструктурой.

Присоединяйтесь офлайн или онлайн, участие бесплатное.
➡️Вот ссылка на регистрацию.

Будем рады видеть всех 10 декабря.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍2
Forwarded from LLM Arena
🔫 GenCode Mini Gallery Bench

LLM Arena совместно с Сергеем Курбановым (руководитель направления RnD в компании MWS) рады представить новый бенчмарк.

📈 LLM стремительно эволюционируют и выходят на уровень AGENT-поведения, где модели решают задачи от анализа данных до полноценной разработки. На этом фоне особенно интересно посмотреть на то, как модели в режиме реального времени справляются даже с такими, на первый взгляд, простыми задачами вёрстки.

GenCode Mini Bench не содержит выводов — только чистый эксперимент и результат работы моделей.

Да, это не совсем привычный бенчмарк, но надеемся, что вам понравится его формат. Кроме того, там подключена форма обратной связи, где вы можете прислать собственные промпты, а мы каждые 2 недели будем обновлять его содержимое.

Генерации обновляются каждые 6 часов, поэтому заглядываете периодически, чтобы посмотреть на результаты различных моделей.

❗️ Модели, используемые для генераций доступны по API на VSELLM

Вкладка с бенчмарком доступна на https://llmarena.ru/ или напрямую по ссылке https://clocks.llmarena.ru/.

📸 Ждем вашего мнения и обратной связи.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥85
2025/12/03 19:22:53
Back to Top
HTML Embed Code: