Telegram Web
🔥 FlashVideo — это проект, направленный на создание высококачественного видео с использованием эффективных методов генерации! Проект включает две стадии: первая отвечает за генерацию видео с разрешением 270p, вторая — за улучшение качества до 1080p.

🔐 Лицензия: Apache-2.0

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1🔥1
⚡️ R1 1776 – обновлённая версию модели DeepSeek-R1 от perplexity_ai, которая прошла пост-обучение для устранения цензуры Коммунистической партии Китая.

Главное:

- Модель создана для предоставления непредвзятой, точной и фактической информации без излишней цензуры.
Высокие рассуждательные способности:

- Несмотря на отказ от цензуры, R1 1776 сохраняет выдающиеся аналитические и логические возможности.

- Многоязычная проверка: Для оценки модели был сформирован разнообразный набор из более чем 1000 примеров, охватывающих широкий спектр чувствительных тем, с участием как человеческих экспертов, так и специализированных LLM-судей.

https://huggingface.co/perplexity-ai/r1-1776

@bigdatai
🔥62👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Quickwit — облачно-нативный поисковый движок, предназначенный для анализа и наблюдаемости данных, таких как логи и трассировки!

🌟 Это альтернатива инструментам вроде Elasticsearch, Datadog, Loki и Tempo, оптимизированная для высокой скорости работы на облачных хранилищах, таких как Amazon S3, Azure Blob Storage и Google Cloud Storage.

💡 Quickwit поддерживает полнотекстовый поиск, агрегационные запросы, API, совместимые с Elasticsearch, и интеграции с OpenTelemetry (OTEL) и Jaeger. Движок обладает схемно-независимой архитектурой, разделением вычислительных и хранилищных операций, что позволяет масштабировать его под большие объёмы данных.

🔐 Лицензия: AGPL-3.0

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2🔥1🥰1
Forwarded from Machinelearning
🌟 ReasonFlux: математические рассуждения для LLM.

ReasonFlux - методика, которая используется как для обучения, так и для инференса, чтобы повысить способность LLM к сложному логическому мышлению. Применение метода позволяет превосходить OpenAI o1-preview и DeepSeek V3 в задачах математического рассуждения.

При использовании в обучении ReasonFlux использует иерархическую структуру с подкреплением на последовательности высокоуровневых шаблонов мышления. Это позволяет базовой LLM научиться планировать оптимальную траекторию шаблонов для решения сложных задач. В процессе обучения ReasonFlux анализирует и обобщает информацию о решении задач, выявляя общие закономерности, и на основе этого создает шаблоны мышления.

Во время инференса ReasonFlux автоматически извлекает релевантные шаблоны мышления и масштабирует их для достижения превосходной производительности в сложных задачах рассуждения. Он динамически выбирает наиболее подходящий шаблон высокого уровня для каждой подзадачи, упрощая поиск путей рассуждений. ReasonFlux использует новую систему масштабирования во время вывода, которая адаптирует шаблоны мышления.

В экспериментальных тестах ReasonFlux-32B достиг 91,2% точности на MATH benchmark, опередив o1-preview на 6,7%. На AIME benchmark модель решила в среднем 56,7% задач, превзойдя o1-preview и DeepSeek-V3 на 27% и 45% соответственно.

Практическая реализация метода доступна в репозитории проекта, в нем cодержится необходимый код и описание для файнтюна LLM на примере SFT-датасета решений GaoKao Bench.

⚠️ Для трейна моделей на SFT-сете проект использует фреймворк LLaMA-Factory.

▶️ Локальная установка и запуск:

# Clone the repository
git clone https://github.com/ReasonFlux
cd ReasonFlux

# Create a Conda venv
conda create -n ReasonFlux python==3.9
conda activate ReasonFlux

# Install dependencies
pip install -r requirements.txt

# When you complete your first-stage training, you can try to use simple inference
from reasonflux import ReasonFlux

reasonflux = ReasonFlux(navigator_path='path-to-navigator',
template_matcher_path='jinaai/jina-embeddings-v3',
inference_path='path-to-infernece-model',
template_path='template_library.json')
problem = """Given a sequence {aₙ} satisfying a₁=3, and aₙ₊₁=2aₙ+5 (n≥1), find the general term formula aₙ"""


📌Лицензирование: Apache 2.0 License.


🟡Arxiv
🟡SFT Датасет (на китайском)
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #ReasonFlux
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍53🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Magic 1-For-1 — это модель генерации видео, разработанная для оптимизации использования памяти и снижения задержек при выводе!

🌟 Она разделяет задачу генерации видео из текста на два этапа: генерацию изображения из текста и преобразование изображения в видео, что способствует более эффективному обучению и дистилляции.

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Open Computer Use — платформа для безопасного использования компьютеров с помощью ИИ, управляемого через E2B Desktop Sandbox!

🌟 Это решение позволяет удалённо управлять компьютером с помощью команд, моделируя действия клавиатуры, мыши и терминала. Интерфейс поддерживает интеграцию с различными моделями LLM (Large Language Models), включая Llama, Hugging Face и другие.

💡 Ключевые функции: живая трансляция дисплея из песочницы, возможность приостановить выполнение агентом задач для внесения обратной связи, поддержка любых операционных систем и платформ, а также гибкость настройки моделей.

🔐 Лицензия: Apache-2.0

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
📝 E2M (Everything to Markdown) — библиотека на Python для преобразования различных типов файлов в формат Markdown!

🌟 Он поддерживает широкий спектр форматов, включая doc, docx, epub, html, url, pdf, ppt, mp3, и m4a. Библиотека использует архитектуру «парсер-конвертер»: сначала данные извлекаются из файлов с помощью парсеров, а затем преобразуются в Markdown через конвертеры.

🌟 E2M разработан для упрощения работы с данными, особенно для задач Retrieval-Augmented Generation (RAG), обучения моделей и их дообучения. Поддерживаются инструменты обработки текста, изображений и звука, такие как OpenAI Whisper API для преобразования аудио в текст.

🔐 Лицензия: Apache-2.0

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍1
🔥 openpilot — это открытое программное обеспечение, которое служит операционной системой для робототехники для улучшения системы помощи водителю в автомобилях!

🌟 openpilot расширяет возможности существующих систем помощи водителю (ADAS) и может быть установлен на более чем 275 поддерживаемых моделях автомобилей. Он добавляет функции, такие как удержание полосы, адаптивный круиз-контроль и автоматическое экстренное торможение.

🔐 Лицензия: MIT

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍2😱2
Forwarded from Machinelearning
⚡️ Magma-8B – это экспериментальная модель от Microsoft, которая объединяет обработку текста и изображений в одном агентском решении.

Чем полезен инструмент:

- Мультимодальность: Возможность работать с изображениями, видео и текстом позволяет строить комплексные системы – от навигации по пользовательским интерфейсам до управления робототехникой.
Агентские возможности: Модель не просто описывает содержимое картинки, а умеет генерировать план действий, что особенно ценно для интерактивных приложений.
- ИспользованиеSet-of-Mark и Trace-of-Mark, помогает связать визуальные элементы с текстовыми командами, обеспечивая более точное понимание и планирование.

Magma-8B специально разработан для сценариев работы с агентами – акцент не только на генерации текста, но и на взаимодействии с реальными объектами (например, интерфейсами).

Модель обучалась на разнообразных источниках, включая неразмеченные видео, в результате этого удалось добиться понимания динамики и пространственных отношений в видео.


Современные технические решения и масштабируемость, что позволяет адаптировать модель под разные задачи.

Минусы:

- На данном этапе модель ориентирована на исследовательские проекты, поэтому может требовать доработки перед использованием в боевых условиях.
- Ограничения по языкам: основной фокус сделан на английском, что может усложнить работу с другими языками.

Возможны нестабильные результаты - в некоторых сценариях, особенно если задача выходит за рамки обучающих данных, что требует осторожности при внедрении в реальные приложения.

В целом, Magma-8B – это интересный экспериментальный инструмент, который может стать отправной точкой для создания новых, более «умных» агентных систем, объединяющих восприятие и действие в одном флаконе.

pip install torchvision Pillow open_clip_torch

https://huggingface.co/microsoft/Magma-8B

#microsoft #magma #multimodal
🔥 OpenObserve — это облачное решение для мониторинга и анализа данных с открытым исходным кодом!

🌟 Оно позволяет собирать, индексировать и визуализировать различные метрики и логи в реальном времени.

🔐 Лицензия: Apache-2.0

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍2🔥1
🔥 Cofounder — это генеративная платформа для создания полноценных веб-приложений с бэкендом и UI!

🌟 Он использует ИИ для генерации приложений, включая проектирование интерфейсов и создание структур на основе описаний. На данный момент это ранняя альфа-версия, нестабильная, которая требует больших вычислительных ресурсов. В будущем проект планирует улучшения и добавление новых функций, таких как интеграция с мобильными фреймворками и расширенная настройка приложений.

🔐 Лицензия: MIT

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
🔥 MiniCPM-o 2.6 — это мощная языковая модель с 8 млрд параметров, разработанная OpenBMB! Она поддерживает текст, изображения, видео и аудио, а также обеспечивает высококачественные ответы на естественном языке. Производительность модели сравнима с GPT-4o-202405, особенно в обработке мультимодального контента.

💡 Особенности MiniCPM-o включают расширенные возможности оптического распознавания символов (OCR), улучшенное понимание видео и поддержку голосовых диалогов в реальном времени на английском и китайском языках. Модель может адаптировать тембр, скорость и эмоции речи, что делает её полезной для голосовых ассистентов и интерактивных приложений.

🔐 Лицензия: Apache-2.0

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥1
📖 NExT-Mol: объединение 3D-диффузионных моделей и 1D-языкового моделирования для генерации молекул!

🌟 В этой статье представлена новая модель NExT-Mol, сочетающая преимущества 1D-языковых моделей (LM) и 3D-диффузионных моделей для генерации трехмерных структур молекул. Авторы отмечают, что, хотя 3D-диффузионные модели эффективно моделируют непрерывные 3D-конформеры, они могут генерировать некорректные молекулы. В то же время 1D-LM, основанные на SELFIES, обеспечивают 100% валидность создаваемых молекул, используя большие одномерные наборы данных.

🔗 Ссылка: *клик*

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
🔥 Jina Serve — это облачно-ориентированный фреймворк для создания и развертывания мультимодальных AI-сервисов!

🌟 Он поддерживает взаимодействие через gRPC, HTTP и WebSocket, предлагая высокопроизводительную архитектуру для масштабирования, потоковой передачи данных и динамической обработки запросов. Основные возможности включают нативную интеграцию с ML-фреймворками, контейнеризацию, встроенный оркестратор микросервисов и поддержку Kubernetes.

🔐 Лицензия: Apache-2.0

🖥 Github

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
1👏1
🔥 Code2Prompt — это инструмент командной строки, который помогает разработчикам передавать структуру и содержимое кода большим языковым моделям!

🌟 Он автоматически генерирует Markdown-файлы с подробным представлением проекта, что упрощает анализ, документирование и рефакторинг кода. Это особенно полезно для работы с крупными кодовыми базами, где важно дать модели контекст перед генерацией ответов.

🔐 Лицензия: MIT

🖥 Github

@bigdatai
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/07/08 18:07:55
Back to Top
HTML Embed Code: