Telegram Web
Forwarded from Machinelearning
🌟 Athene-V2: диалоговая и агентная модели от Nexusflow с 72 млрд. параметров.

Nexusflow представила семейство Athene-V2 из двух специализированных моделей: Athene-V2-Chat-72B, оптимизированную для чат-диалогов, и Athene-V2-Agent-72B, предназначенную для работы в качестве агента.

Обе модели построены на базе Qwen 2.5-72B-Instruct. Ключевая особенность Athene-V2 - концепция "границы Парето" в постобработке LLM.

По мере обучения модели с помощью RLHF на качественных данных достигается оптимальный баланс между метриками производительности, формируя "границу Парето". Дальнейшее улучшение отдельных характеристик становится возможным только за счет снижения других показателей.

Athene-V2-Chat-72B демонстрирует конкурентоспособные результаты по сравнению с GPT-4o в бенчмарках, превосходя его в задачах чата (Arena-Hard), завершения кода (bigcode-bench-hard) и математических задачах (MATH).

Athene-V2-Agent-72B превосходит GPT-4o в бенчмарках Nexus-V2, ориентированных на сложные сценарии вызова функций в корпоративной среде.

Athene-V2-Chat-72B использует шаблон чата Qwen2.5-72B-Instruct. Пример инференса с помощью библиотеки Transformers.

Athene-V2-Agent-72B можно использовать в любой совместимой с OpenAI API среде с помощью docker-образа VLLM. Примеры запуска погодного и RAG-агента.

⚠️ Athene-V2-Agent использует уникальный стиль промптов, который включен в docker-образ, поскольку исполняемые вызовы извлекаются из сгенерированного планирования модели.
Использование шаблона чата HuggingFace приведет к неоптимальным результатам в случае использования Athene-V2-Agent .

▶️На HF доступны неофициальные квантованные версии в формате GGUF c диапазоном разрядности от 3 до 8 bit:

🟠Athene-V2-Chat-72B

🟠Athene-V2-Agent-72B


📌Лицензирование: Nexusflow Research License


🟡Страница проекта
🟡Набор моделей
🟡Сообщество в Discord


@ai_machinelearning_big_data

#AI #ML #LLM #AtheneV2 #Nexusflow
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥21🥰1
⚡️Легкий способ получать свежие обновления и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:

МАШИННОЕ ОБУЧЕНИЕ: www.tgoop.com/ai_machinelearning_big_data
C++ www.tgoop.com/cpluspluc
Python: www.tgoop.com/pythonl
Linux: www.tgoop.com/linuxacademiya
Хакинг: www.tgoop.com/linuxkalii
Devops: www.tgoop.com/DevOPSitsec
АНАЛИЗ Данных: www.tgoop.com/data_analysis_ml
Javascript: www.tgoop.com/javascriptv
C#: www.tgoop.com/csharp_ci
Java: www.tgoop.com/javatg
Базы данных: www.tgoop.com/sqlhub
Python собеседования: www.tgoop.com/python_job_interview
Мобильная разработка: www.tgoop.com/mobdevelop
Docker: www.tgoop.com/DevopsDocker
Golang: www.tgoop.com/Golang_google
React: www.tgoop.com/react_tg
Rust: www.tgoop.com/rust_code
ИИ: www.tgoop.com/vistehno
PHP: www.tgoop.com/phpshka
Android: www.tgoop.com/android_its
Frontend: www.tgoop.com/front
Big Data: www.tgoop.com/bigdatai
Собеседования МЛ: www.tgoop.com/machinelearning_interview
МАТЕМАТИКА: www.tgoop.com/data_math
Kubernets: www.tgoop.com/kubernetc
Разработка игр: https://www.tgoop.com/gamedev

💼 Папка с вакансиями: www.tgoop.com/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: www.tgoop.com/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: www.tgoop.com/addlist/eEPya-HF6mkxMGIy
Папка ML: https://www.tgoop.com/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://www.tgoop.com/addlist/mzMMG3RPZhY2M2Iy

😆ИТ-Мемы: www.tgoop.com/memes_prog
🇬🇧Английский: www.tgoop.com/english_forprogrammers
🧠ИИ: www.tgoop.com/vistehno

🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
📕Ит-книги бесплатно: https://www.tgoop.com/addlist/BkskQciUW_FhNjEy
2👍1🔥1
📖 Эта статья описывает подход к расширению поисковых запросов с использованием больших языковых моделей (LLM) и знаний из графов знаний (KG)! Авторы предлагают метод для улучшения поиска информации по полуструктурированным данным, который учитывает не только текстовую релевантность, но и структурные связи документов, представленных в графе знаний.

💡 Идея состоит в том, чтобы расширить начальный запрос пользователя за счет семантических и структурных связей в документах, которые могут быть релевантными для ответа на более сложные запросы, содержащие как текстовые, так и реляционные элементы. Система оценивает релевантность связей между элементами в графе знаний на основе информации в текстах документов, а не только по именам сущностей, что повышает точность поиска.

🌟 Этот метод улучшает поиск по запросам, которые требуют не только совпадений по тексту, но и учета взаимосвязей, например, в академическом поиске, когда учитываются такие параметры, как авторство и цитирование статей.

🔗 Читать: *клик*

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
5👍3🔥3
Forwarded from Machinelearning
🌟 OpenCoder - модели для кодинга, cookbook обучения и датасеты.

OpenCoder - это открытое и воспроизводимое семейство LLM для программирования, включающее 1,5B и 8B базовые и instruct версии, поддерживающее английский и китайский языки.

Семейство моделей OpenCoder обучалось с нуля на 2,5 трлн. лексем, состоящих на 90 % из сырого кода и на 10 % из веб-данных, связанных с кодом, и прошло отладку на более чем 4,5 млн. высококачественных примеров SFT, в итоге достигнув производительности топовых LLM с похожей специализацией.

В открытый доступ опубликованы не только веса моделей и код для инференса, но и датасеты, полный цикл обработки данных, результаты экспериментальной абляции и подробные протоколы обучения.

OpenCoder тщательно протестирован с помощью исследований абляции на различных стратегиях очистки данных и процессах обучения, включая эксперименты по дедупликации на уровне файлов и репозиториев, что обеспечило семейству тщательную проверку производительности моделей.

OpenCoder достигает высокой производительности в различных бенчмарках, что ставит их в ряд SOTA-моделей с открытым исходным кодом для задач программирования.

▶️ Семейство моделей OpenCoder :

🟢OpenCoder-1.5B-Base, 4 тыс. токенов контекста;

🟢OpenCoder-8B-Base, 8 тыс. токенов контекста;

🟠OpenCoder-1.5B-Instruct, 4 тыс. токенов контекста;

🟠OpenCoder-8B-Instruct, 8 тыс. токенов контекста;

▶️ Датасеты:

🟢OpenCoder-SFT-Stage1, 4.21 млн. строк;

🟠OpenCoder-SFT-Stage2, 375 тыс.строк.


▶️ Пример инференса на HF Transformers:

import torch
from transformers import AutoTokenizer, AutoModelForCausalLM

model_name = "infly/OpenCoder-8B-Instruct"
model = AutoModelForCausalLM.from_pretrained(model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)

messages=[
{ 'role': 'user', 'content': "write a quick sort algorithm in python."}
]

inputs = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")

outputs = model.generate(inputs, max_new_tokens=512, do_sample=False)

result = tokenizer.decode(outputs[0][len(inputs[0]):], skip_special_tokens=True)



🟡Страница проекта
🟡Набор моделей
🟡Arxiv
🟡Набор датасетов
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #OpenCoder #Datasets
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42
📝 Эта статья — исследование, посвященное персонализации больших языковых моделей (LLM). Она рассматривает подходы к индивидуализации LLM для различных приложений, таких как системы рекомендаций и персонализированная генерация текста.

🌟 Авторы предлагают таксономию техник персонализации, анализируют текущие вызовы, проблемы и различные методы, оценивая подходы и задачи, которые необходимо решить для эффективной адаптации LLM под нужды пользователей.

📖 Читать: *клик*

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥1👏1
🎓Погружаемся в мир обучения с подкреплением (RL) и изучаем его применение в разработке рекомендательных систем!

3 декабря в 20.00 мск приходите на открытый вебинар "Автоматизация инжениринга признаков", на котором мы разберем:

- сильные и слабые стороны алгоритмов классического RL и Deep RL.;
- постановку задачи о многоруком бандите для классического и Deep RL.
- подходы к применению задачи о многоруком бандите для разработки рекомендательных систем

👉Регистрация. Участие бесплатно https://otus.pw/AHZ2/?erid=LjN8KQBpG

Встречаемся в преддверии старта курса «Reinforcement Learning» в OTUS. Обучение на курсе позволит применять алгоритмы RL для решения разнообразных задач в реальном мире, включая игровую индустрию, робототехнику, управление энергетическими системами и управление финансовым портфелем

#реклама
О рекламодателе
👍2
🔍 carefree-learn — упрощенный интерфейс для работы с глубоким обучением на PyTorch.

💡 Его цель — сделать разработку нейронных сетей более доступной, избегая усложнений, таких как наследование, и поддерживая модульный подход для более удобной компиляции и расширяемости. Система ориентирована на задачи как обучения, так и инференса, поддерживает обработку табличных данных и AutoML и включает набор моделей и алгоритмов для гибкого применения в различных проектах глубокого обучения.

🔐 Лицензия: MIT

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍4🔥3
👩‍💻 Mesop — это фреймворк от Google, упрощающий создание AI веб-приложений на Python. Он ориентирован на ускоренную разработку AI-приложений и демонстрационных интерфейсов, не требуя навыков в JavaScript, CSS или HTML.

🌟 Mesop поддерживает горячую перезагрузку, обеспечивая быструю настройку интерфейсов. Код создается с помощью Python, в том числе с использованием готовых компонентов и API для упрощенного подключения модели.

🔐 Лицензия: Apache-2.0

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥2
🔥 LLM MapReduce: упрощенная обработка длинных последовательностей с использованием больших языковых моделей

💡 Расширение контекстного окна больших языковых моделей (LLM) стало важной областью исследований, особенно для приложений, включающих чрезвычайно длинные тексты. В этой статье авторы предлагают новую структуру без обучения для обработки длинных текстов, используя стратегию «разделяй и властвуй» для достижения всестороннего понимания документа. Предлагаемая технология разбивает весь документ на несколько фрагментов для чтения LLM, а затем объединяет промежуточные ответы для получения окончательного результата.

📖 Читать: *клик*

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥31👏1
Forwarded from Machinelearning
✔️ Deus in machina: Швейцарская церковь установила Jesus-AI.

В старейшей церкви швейцарского города Люцерн, часовне Святого Петра, появился AI Jesus, способный общаться на 100 языках. Проект под названием Deus in Machina, был запущен в августе 2024 года в рамках многолетнего сотрудничества с местной университетской исследовательской лабораторией по виртуальной реальности.

AI Jesus был установлен в исповедальне, где посетители могли задавать ему вопросы через решетчатый экран, получая ответы в режиме реального времени. Программа ИИ была обучена на богословских текстах. За двухмесячный период эксперимента более 1000 человек пообщались с аватаром. Две трети пользователей оценили этот опыт как "духовный". Однако, некоторые люди критиковали эксперимент, находя невозможным разговор с машиной, а ответы ИИ - банальными и поверхностными.
theguardian.com

✔️ Samsung Electronics и LG Uplus совместно разрабатывают смартфон ixi-O AI.

Samsung Electronics и мобильный оператор LG Uplus объединили усилия для создания смартфона с искусственным интеллектом, оснащенного цифровым помощником. Компании планируют выпустить "настоящий AI-телефон", который выйдет за рамки простой интеграции сервисов AI-помощника в смартфон.

В рамках этого партнерства Samsung и LG Uplus будут совместно разрабатывать смартфоны Galaxy, интегрируя возможности AI от LG уже на этапе разработки. Основное внимание будет уделено объединению AI-помощника LG Uplus ixi-O с сервисом Samsung Galaxy AI.

Новый AI-смартфон, предварительно названный Galaxy ixi-O, будет ориентирован в первую очередь на пользователей LG Uplus. Ожидается, что смартфон появится в следующем году.
kedglobal.com

✔️ OpenAI запускает бесплатный учебный курс по искусственному интеллекту для учителей.

OpenAI совместно с некоммерческой организацией Common Sense Media запустила бесплатный обучающий курс для учителей, посвященный ИИ и промпт-инжинирингу. Курс должен помочь учителям разобраться в возможностях чат-бота ChatGPT.

Обучение демонстрирует, как использовать ChatGPT для создания учебных материалов и оптимизации рабочих процессов. Курс доступен на сайте Common Sense Media. OpenAI создала специальную команду под руководством бывшего руководителя Coursera Лии Белски, чтобы поддержать ответственное использование ИИ в образовании.

Белски отметила высокий уровень использования ChatGPT среди учеников и поддержку со стороны родителей, которые считают навыки работы с ИИ необходимыми для будущей карьеры.
reuters.com

✔️ Nvidia представляет новый гибрид на базе CPU и GPU - GB200 Grace Blackwell NVL4 Superchip.

Nvidia анонсировала GB200 NVL4, модуль с 4 графическими процессорами B200 и 2 процессорами Grace на одной материнской плате. Решение предназначено для высокопроизводительных вычислений и гибридных рабочих нагрузок ИИ, предлагая 1,3 ТБ когерентной памяти.

По заявлению Nvidia, GB200 NVL4 эффективней в 2,2 раза в задачах моделирования, в 1,8 раза - в обучении ИИ и в 1,8 раза в инференсе по сравнению с Nvidia GH200 NVL4 Grace Hopper Superchip.

GB200 NVL4 будет доступен до конца 2024 года от различных производителей: MSI, Asus, Gigabyte, Wistron, Pegatron, ASRock Rack, Lenovo, HP Enterprise и другие.
tomshardware.com

✔️ Немецкий стартап Gemesys привлек 8,6 млн евро на разработку ИИ-чипов, имитирующих работу человеческого мозга.

Gemesys разрабатывает ИИ-чипы нового поколения с использованием мемристоров — электронных компонентов, которые взаимодействуют с нейронными сетями в автономном режиме и с минимальным использованием пропускной способности. Компания Gemesys была основана в 2021 году как спин-офф Рурского университета в Бохуме, Германия.

Финансирование Gemesys возглавил фонд Amadeus APEX Technology Fund совместно с Atlantic Labs при участии NRW.BANK, Sony Innovation Fund и калифорнийского Plug and Play Tech Center.
techfundingnews.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥2👍1
Alibaba только что выпустила Marco-o1

Marco-o1 основан на тонкой настройке цепочки (CoT), поиске по дереву Монте-Карло (MCTS), механизмах рефлексии и инновационных стратегиях рассуждения, оптимизированных для решения сложных задач в реальном мире.

Благодаря файнтюнингу Qwen2-7B-Instruct с использованием комбинации отфильтрованного набора данных Open-O1 CoT, набора данных Marco-o1 CoT и набора данных инструкций Marco-o1, Marco-o1 улучшил обработку сложных задач.

MCTS позволяет исследовать множество путей рассуждения, используя показатели достоверности, полученные на основе логарифмических вероятностей, применяемых softmax для топ-k альтернативных токенов, что приводит модель к оптимальным решениям.

Более того, такая стратегия обоснованных действий предполагает изменение степени детализации действий в рамках шагов и мини-шагов для оптимизации эффективности и точности поиска.

HF: https://huggingface.co/AIDC-AI/Marco-o1
Github: https://github.com/AIDC-AI/Marco-o1
Paper: https://arxiv.org/abs/2411.14405
Data: https://github.com/AIDC-AI/Marco-o1/tree/main/data

@machinelearning_ru
5👍2🤬2🔥1
2025/07/13 03:58:47
Back to Top
HTML Embed Code: