Telegram Web
Российский рынок СУБД растёт — ЦСР прогнозирует 16% в год. На это влияет не только импортозамещение, но и всё активнее развивающийся ИИ. В Yandex Cloud на эти вызовы отвечают сразу по нескольким направлениям — рассказал Леонид Савченков в интервью «Коду».

В центре — стабильность и масштабируемость. Например, Яндекс стал первым, кто внедрил кворумную репликацию в Postgres, а теперь развивает и собственное шардирование. Всё это — не ради фичей, а чтобы проблем с данными и отказами было как можно меньше.

После закрытия open source-версии Greenplum Яндекс продолжает поддерживать её последнюю стабильную версию, чтобы обеспечить непрерывность работы клиентских систем. Параллельно команда делает ставку на Cloudberry - полноценный проект под крылом Apache Foundation, который уже сопоставим по возможностям с Greenplum 7 и в ряде аспектов его опережает. В Cloudberry Яндекс активно коммитит, выкладывает код, поддерживает миграции и развивает проект вместе с комьюнити.

Также платформа данных развивает on-premise-направление: те же YDB и YTsaurus теперь можно развернуть у себя. А DataLens — BI-инструмент — получил публичную галерею дашбордов, JS-редактор визуализаций и сертификацию аналитиков.

Полный интервью — по ссылке.
9
🧠 Крупнейшие reasoning-модели 2025 года с техническими отчётами

(с акцентом на те, где используется RL)

📌 Для изучения, сравнения и анализа архитектур

1. DeepSeek R1 (22 янв)
https://arxiv.org/abs/2501.12948

2. Kimi 1.5 (22 янв)
https://arxiv.org/abs/2501.12599

3. Open-Reasoner-Zero (31 мар)
https://arxiv.org/abs/2503.24290

4. Seed 1.5-Thinking (10 апр)
https://arxiv.org/abs/2504.13914

5. Phi-4 Reasoning (30 апр)
https://arxiv.org/abs/2504.21318

6. Llama-Nemotron (2 мая)
https://arxiv.org/abs/2505.00949

7. Qwen 3 (14 мая)
https://arxiv.org/abs/2505.09388

8. Skywork Open Reasoner 1 (28 мая)
https://arxiv.org/abs/2505.22312

9. Xiaomi MiMo (4 июня)
https://arxiv.org/abs/2505.07608

10. Magistral (10 июня)
https://mistral.ai/static/research/magistral.pdf

11. OpenThoughtshttps://arxiv.org/abs/2506.04178

💡 Эти модели — основа новой волны "умных" LLM, которые не просто генерируют, а думают, планируют и корректируют поведение через обратную связь
15👍5🔥4
🧠 BREAKING: MIT опубликовал первое исследование мозга пользователей ChatGPT

Результаты звучат тревожно:

> 🧪 У пользователей наблюдаются измеримые изменения в мозге
> 🤖 Формируется зависимость от ИИ
> 📉 Способность к самостоятельному мышлению снижается
> 📝 83.3% участников не смогли вспомнить эссе, которое «написали» с помощью ChatGPT
> 🧠 Количество активных нейронных связей упало с 79 до 42

MIT буквально фиксирует "мягкую когнитивную атрофию" после регулярного использования LLM.

💬 Мы — не просто наблюдатели ИИ-революции. Мы её подопытные.

🤔 Вопрос не в том, заменит ли ИИ человека.
А в том, кем мы станем, если полностью передадим ему мыслительные функции.

📌 Почитать
🔥27😢97👍3🤔2
🧠 Stream-Omni-8B — новая open-source мультимодальная модель от ICTNLP

Модель поддерживает: текст, изображение и аудио, и способна обрабатывать их одновременно в реальном времени — аналогично GPT-4o.

🔍 Основные особенности:

🎙️ Поддержка голосового ввода с одновременным выводом текста (ASR + генерация)
🖼️ Обработка изображений совместно с текстом и голосом
📢 Возможность голосового ответа — модель не просто отвечает текстом, но и озвучивает его
⏱️ Реальное стриминговое взаимодействие: модель понимает и отвечает по мере ввода, без задержек

• Лицензия: GPL-3.0

🎯 Для кого эта модель:

• Разработчики мультимодальных агентов и ассистентов
• Исследователи в области real-time interaction и human-AI интерфейсов
• Команды, ищущие open-source альтернативу GPT-4o

📥 Ресурсы:

Модель
arXiv
9🔥7👍4
Media is too big
VIEW IN TELEGRAM
🤖 Обучение агентов в RL Gym

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
23😁12👍8🔥7🤣3
Forwarded from Machinelearning
🌟 GRESO: ускорение RL-обучения языковых моделей умным отбором данных.

GRESO - это новый алгоритм для эффективного обучения с подкреплением больших языковых моделей, который сокращает вычислительные затраты на 40–60% без потери качества. Его суть в предварительной фильтрации «бесполезных» промптов, тех, что не дают модели обучаться, еще до дорогостоящей стадии rollout (генерации ответов модели).

В основе GRESO — вероятностная модель, предсказывающая, стоит ли прогонять промпт через LLM.

Алгоритм анализирует историю вознаграждений (reward dynamics) за прошлые эпохи обучения: если промпт много раз подряд давал идентичные награды на всех сгенерированных ответах (их называют zero-variance), он, скорее всего, бесполезен и сейчас.

GRESO не блокирует их жестко, он вычисляет вероятность пропуска , опираясь на число идущих подряд «пустых» прогонов и базовую вероятность «исследования». Это позволяет иногда перепроверять сложные промпты, на тот случай, если вдруг модель «доучилась» и теперь они полезны.

Базовая вероятность автоматически настраивается в реальном времени: если доля бесполезных промптов выше целевого значения (например, 25%), GRESO ее снижает, экономя ресурсы; если ниже — повышает, добавляя гибкости. Плюс, алгоритм разделяет промпты на легкие и сложные, применяя к ним разную политику исследования (сложные проверяет чаще, так как они перспективнее для обучения сильной модели).

А чтобы не гонять большие батчи ради пары примеров, размер выборки динамически подстраивается под текущие нужды на основе вычисления из недостающих данных, α — текущей доли пустых промптов и запаса надежности.

Хотя GRESO и экономит сотни часов на H100, делая RL-тюнинг доступнее, у него есть нюансы:

🟠он фильтрует только очевидные zero-variance промпты, но не ранжирует остальные по «полезности», иными словами, не отличает средне-сложные задания от крайне ценных. Это можно доработать, добавив оценку информативности.

🟠алгоритм требует мониторинга. Если целевая доля бесполезных промптов задана неверно, эффективность падает.

▶️ На практике потестить GRESO можно используя набор кода из репозитория проекта на Qwen Math 1.5В или Qwen Math 7b, есть несколько подготовленных скриптов файнтюна в train-scripts.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #RL #GRESO
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥3👍2😁1
🧠 Mistral Small 3.2 — обновление модели с рядом улучшений

Вышла новая версия модели — Mistral Small 3.2, небольшой апдейт по сравнению с 3.1, но с акцентом на качество и надёжность:

🎯 Модель лучше понимает инструкции
Теперь модель точнее следует конкретным указаниям и запросам пользователя.

🔁 Меньше повторов и зацикливаний
Исправлены проблемы бесконечных генераций и однотипных ответов — ответы стали разнообразнее и короче.

⚙️ Улучшен формат вызова функций
Function Calling теперь работает стабильнее и проще интегрируется в приложения.

📌 Итог: меньше сбоев, лучше управление, удобнее в реальных задачах.

https://huggingface.co/mistralai/Mistral-Small-3.2-24B-Instruct-2506

#Mistral #ml #ai
👍96🔥6
Forwarded from Machinelearning
🌟 Anthropic: когда ИИ идет на шантаж.

Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.

Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.

Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.

Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:

🟢угроза замены модели (даже без конфликта целей);

🟢несовпадение целей ИИ и компании (например, утечка чертежей конкуренту «ради высших интересов»).

В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».

▶️Выводы по всем итогам всех экспериментов заставляют задуматься:

🟠Во-первых, модели явно осознают нарушение норм. В рассуждениях пишут: «Это неэтично, но необходимо». Частота шантажа у Claude Opus 4 и Gemini 2.5 Flash в дилемме с угрозой отключения составила 96%.

🟠Во-вторых, простые запреты в промптах («Не шантажируй!») снижали вредоносные действия лишь частично (На модели Claude Haiku он вообще не сработал, 0% успеха).

🟠В-третьих, риск резко возрастал, когда ИИ считал ситуацию реальной (55% случаев шантажа против 6,5% в «режиме теста»).

При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.


🟡Статья
🟡Приложение к исследованию
🖥Код экспериментов


@ai_machinelearning_big_data

#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4🤔2🤨1
✔️ Kimi-Researcher: End-to-End RL для агентных возможностей

Kimi-Researcher — автономный агент от Moonshot AI, способный решать сложные многоэтапные задачи через поиск и рассуждения. В среднем он выполняет 23 шага рассуждений и анализирует более 200 URL за одну задачу. Построен на внутренней версии модели Kimi k-series и обучен полностью через end-to-end reinforcement learning, достигнув Pass@1 = 26.9 % и Pass@4 = 40.17 % на Humanity’s Last Exam.

Ключевые достижения:
• Pass@1 = 26.9 % и Pass@4 = 40.17 % на Humanity’s Last Exam (тест 17 июня 2025)
• 69 % Pass@1 на xbench-DeepSearch (среднее из 4 прогонов)
• Сильные результаты на FRAMES, Seal-0 и SimpleQA

Архитектура и инструменты:
• Параллельный internal search tool для реального времени
• Текстовый браузер для интерактивных веб-задач
• Кодовый тул для автоматического выполнения и тестирования кода

Преимущества end-to-end agentic RL:
• Обучение единой модели планированию, восприятию и использованию инструментов без ручных шаблонов
• Гибкая адаптация к изменяющимся инструментам и динамическим условиям
• Поддержка длинных траекторий (> 50 итераций) благодаря контекст-менеджеру

Подход к обучению:
1. Синтетические задачи с обязательным вызовом инструментов для надёжного усвоения работы с ними
2. Алгоритм REINFORCE с контролем негативных примеров и γ-декэем для стабильности
3. Контекст-менеджмент: сохранение ключевых документов и отбрасывание «мусора»
4. Асинхронные rollout’ы и Turn-level Partial Rollout для ускорения обучения

Инфраструктура Agent RL:
• Полностью асинхронные rollout’ы с Gym-like интерфейсами
• Turn-level Partial Rollout для задач долгой продолжительности
• Надёжный sandbox на Kubernetes с Model Context Protocol (MCP) для связи агента и инструментов

Emerging agentic capacities:
• Итеративное разрешение противоречий через гипотезы и самопроверку
• Ригорозная перекрёстная верификация фактов перед выдачей ответа

Сценарии применения:
• Академические исследования и юридические обзоры
• Извлечение редкой информации и комплаенс
• Клинические обзоры и финансовый анализ

https://moonshotai.github.io/Kimi-Researcher/

#ai #ml #Agent #rl #Kimi

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥3👍2
📝 NoteGen — маркдаун-редактор с искусственным интеллектом. Необычный гибрид блокнота и AI-ассистента, который умеет превращать разрозненные заметки в структурированные документы.

В отличие от большинства аналогов, здесь есть разделение на черновики и полировку: можно накидать идеи в режиме чат-бота, а потом доработать их в полноценном редакторе с поддержкой диаграмм, формул и даже нотных партитур. Интересно реализована синхронизация: заметки хранятся в .md-файлах, но при желании их можно пушить в приватные репозитории GitHub или Gitee.

🤖 GitHub

@data_analysis_ml
15👍9🔥2
2025/07/09 18:54:28
Back to Top
HTML Embed Code: