Telegram Web
Media is too big
VIEW IN TELEGRAM
🖥 OpenAI выпустили подкаст с Сэмом Альтманом о будущем ИИ

В первом эпизоде Сэм Альтман и Эндрю Мэйн говорят о том, что ждет нас дальше:
от GPT‑5 и AGI до суперкомпьютера Project Stargate и ИИ, помогающего воспитывать детей.

Приятного просмотра

YouTube: https://www.youtube.com/watch?app=desktop&v=DB9mjd-65gw
Spotify
https://open.spotify.com/show/0zojMEDizKMh3aTxnGLENP
Apple:
https://podcasts.apple.com/us/podcast/openai-podcast/id1820330260
X: https://x.com/OpenAI/status/1935357512011890815

@ai_machinelearning_big_data


#OpenAI #chatgpt #AI #podcast
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4622🥱18🔥7🥰2🐳2🍓1💅1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI прекращает сотрудничество со Scale AI.

OpenAI объявила, что больше не будет работать с Scale AI, стартапом, специализирующимся на разметке данных. Решение принято после того, как компания Марка Цукерберга инвестировала $14,3 млрд в Scale и переманила ее основателя Александра Ванга для создания «суперинтеллекта».

В OpenAI заявили, что Scale AI обеспечивал лишь небольшую часть их потребностей, а из-за роста сложности моделей требуются более квалифицированные партнеры. Теперь компания переключается на других поставщиков, Mercor, который раньше занимался рекрутингом, а теперь помогает в создании ИИ.

Для Scale AI это довольно ощутимый удар: потеря одного из ключевых клиентов и уход лидера всего за одну неделю.
bloomberg.com

✔️ Midjourney открыла доступ к своей видео-модели.

После недель анонсов и сбора фидбэка, Midjourney представила свою первую Image-to-Video модель. Новая функция Animate позволяет превращать любые картинки в короткие анимационные ролики через автоматический или ручной режим. Режимы Low Motion и High Motion регулируют интенсивность движения. Видео можно продлевать до 16 секунд, добавляя описания к каждому фрагменту. Поддерживаются и сторонние изображения: их загружают как стартовый кадр, а движение задают текстовым промптом.

Ролики пока доступны в 480p при 24 кадрах в секунду. Генерация стоит в 8 раз больше, чем изображения, но компания утверждает, что это в 25 раз дешевле конкурентов. Для Pro-подписчиков тестируют Video Relax Mode, экономящий приоритетные минуты. По словам создателей, видео - это промежуточный этап перед объединением 3D, видео и реального времени в единой платформе.
midjourney.com

✔️ SandboxAQ опубликовала в открытый доступ датасет трехмерных ко-структур молекул белков и препаратов.

Компания SandboxAQ, выделенная из Google и поддержанная Nvidia, опубликовала массив данных, цель которого помочь ученым прогнозировать, как молекулы веществ взаимодействуют с целевыми белками в организме. Это критически важно на ранних этапах создания препаратов: если молекула не «прилипает» к нужному белку, лекарство не сработает.

Используя чипы Nvidia, компания сгенерировала 5,2 млн «синтетических» молекул — теоретических структур, основанных на реальных данных. Эти данные обучают ИИ-модели, которые за минуты вычисляют вероятность связывания, экономя месяцы ручных расчетов.
sandboxaq.com

✔️ Исследование MIT: ChatGPT снижает активность мозга у его пользователей.

Ученые из MIT провели эксперимент с 54 добровольцами, которые писали эссе, используя ChatGPT, Google или только свои знания. EEG-анализ показал: у участников с ChatGPT активность мозга была на 30% ниже, особенно в зонах, отвечающих за креативность и память. Со временем они начинали копировать ответы ИИ, теряя навыки формулирования идей. Зато группа без подсказок демонстрировала высокую нейронную связность — мозг работал активнее, генерируя идеи.

Автор исследования, Наталия Космина, предупреждает: чрезмерное доверие к ИИ угрожает обучению и критическому мышлению, особенно у детей. Она призналась, что вставила «ловушки» в текст статьи, чтобы проверить ИИ-суммаризаторы: те начали придумывать версии ChatGPT, которых не было в данных.
Следующий этап - изучение влияния ИИ на программирование. Первые результаты нового этапа, по словам авторов, пугают еще больше.
time.com

✔️ Baidu провела стрим с цифровыми аватарами.

Baidu провела стрим, который может изменить будущее e-commerce, представив цифрового клона известного в Китае стримера Ло Юнхао на своей платформе, поддерживаемого моделью ERNIE. Это мероприятие стало первым в своем роде, где два цифровых аватара вели лайв-стрим одновременно.

Они привлекли более 13 миллионов просмотров за 6 часов и сгенерировали продаж товаров потребительской электроники на сумму более 55 миллионов юаней (7,6 млн. долл). Технология ERNIE позволила аватарам не только общаться в реальном времени, но и генерировать описания продуктов объемом более 97 тысяч символов.
Baidu в сети Х

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
42👍28🔥9🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 MiniMax Agent — новый универсальный ИИ-агент для сложных задач

Команда MiniMax представила MiniMax Agent — интеллектуального агента, способного решать многошаговые, долгосрочные и комплексные задачи.

Что умеет MiniMax Agent:
- Поддерживает комплексное и многошаговое планирование на уровне
- Разбиение задач на подзадачи и их исполнение
- МОщные инструменты генерации кода
- Мультимодальность
- Интеграция с MCP

🔗 https://agent.minimax.io

@ai_machinelearning_big_data

#AI #IntelligentAgent #MiniMax #MultiStepPlanning #Automation #ToolUse #MCP #LLM
Please open Telegram to view this post
VIEW IN TELEGRAM
43🔥24👍12🥰6
📌 Microsoft прокачивает логику ИИ: как маленькие модели учатся рассуждать.

Microsoft Research представила методы, усиливающие способность языковых моделей, от компактных до гигантских к сложным рассуждениям. Технологии фокусируются на 3 направлениях: архитектура малых моделей, математическая строгость и кросс-доменное обобщение.

Ключ для маленьких моделей (1.5–7 млрд параметров) в имитации человеческого пошагового мышления.

rStar-Math использует алгоритм MCTS в цикле самообучения: сначала декомпозиция задачи на шаги, затем Process Preference Model (PPM), который учит модель оценивать качество каждого шага через "метки награды", и наконец — итеративная доработка. За 4 цикла MCTS, стратегия и PPM совместно улучшают результат.

Logic-RL — это фреймворк обучения с подкреплением, который награждает модель только при идеально оформленном ходе рассуждений и верном ответе, исключая любые попытки выбора обходных путей.

Для математической надежности разработан LIPS, гибрид ИИ и символьных движков. LIPS распределяет задачи: языковая модель распознает паттерны и переформулирует условия (например, неравенства), а символьный решатель выполняет точные преобразования (масштабирование, упрощение).

Чтобы ИИ понимал условия без ошибок, создан нейро-символический фреймворк генерации данных: символьные системы создают задачи, а языковые модели переводят их в "человеческий" текст. Для проверки выводов используются символьная эквивалентность (сравнение формул) и семантическая согласованность (анализ смысла через эмбеддинги), повышая точность на 35%.

Дополнительный бонус — неожиданное обобщение. Тренировка на математике резко улучшила результаты моделей в программировании и естественных науках.

Для унификации подходов создан Chain-of-Reasoning (CoR), позволяющий гибко комбинировать текстовые, программные и символьные рассуждения в одном решении. А Critical Plan Step Learning (CPL) учит ИИ стратегическому планированию: разбивать проблему, выделять ключевые шаги и отбрасывать слабые варианты через комбинацию Plan-based MCTS и Step-APO.


🔜 Читать статью в Microsoft Research Blog


@ai_machinelearning_big_data

#AI #ML #LLM #RL #Reasoning #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
58👍40🔥19🌭5🥰1🤣1
Media is too big
VIEW IN TELEGRAM
✔️ GitHub Copilot вводит плату за продвинутые запросы с 18 июня 2025 года.

GitHub объявил о начале тарификации премиум-запросов в Copilot для всех платных планов с 18 июня 2025 года. Теперь пользователи будут получать ежемесячный лимит таких запросов, а неиспользованные остатки сгорают в конце месяца.

Премиум-запросы требуются для работы с мощными моделями вроде GPT-4.5 или Claude Opus 4, где каждый запрос умножается на коэффициент сложности (GPT-4.5 «съедает» 50 единиц за раз). Для бесплатного тарифа доступ ограничен: 2000 автодополнений кода и 50 премиум-запросов в месяц, причем все чаты считаются как "премиум".

Платные планы предлагают неограниченный доступ к базовым моделям (GPT-4.1, GPT-4o), но дополнительные запросы сверх лимита обойдутся в $0.04 за штуку. Если лимит исчерпан, можно переключиться на базовые модели — правда, их скорость зависит от нагрузки.
github.com

✔️ OpenAI разрабатывает меры безопасности для биологических исследований с применением ИИ.

OpenAI предупредила, что ее будущие модели могут представлять повышенный риск создания биологического оружия. Чтобы предотвратить злоупотребления, OpenAI разрабатывает комплексную систему ограничений: обучение моделей игнорировать опасные запросы, автоматический мониторинг подозрительной активности, проверку экспертов и «Red Teams», тестирующие уязвимости.

Компания сотрудничает с лабораториями и правительствами, чтобы улучшить безопасность синтеза ДНК и создать системы раннего обнаружения патогенов. Для тех, кто работает с ИИ в научных целях, планируется отдельный доступ к мощным инструментам, при условии строгого контроля. В июле OpenAI проведет саммит по биозащите, чтобы объединить усилия государств и частного сектора в борьбе с новыми угрозами.
openai.com

✔️ Wix покупает вайбкодинг-платформу Base44 за $80 млн.

Wix, популярный конструктор сайтов, приобрел Base44 — платформу вайбкодинга, позволяющую создавать приложения через текстовые запросы. Сделка оценивается в $80 млн, с возможными доплатами до 2029 года в зависимости от роста пользователей или выручки.

Base44 останется независимой, сохранив текущие инструменты: управление базами данных, аутентификацию, облачное хранение и хостинг. Платформа, насчитывающая 40 тыс. пользователей, недавно добавила чат-бота на основе ИИ для упрощения разработки.
techradar.com

✔️ Google использует миллиарды видео с YouTube для обучения ИИ.

YouTube подтвердил, что Google использует его архив из 20 млрд. видео для тренировки ИИ-моделей, включая Veo 3. Компания утверждает, что задействует лишь часть контента, соблюдая договоры с авторами, но не уточняет деталей. Создатели, чьи ролики могут попадать в обучающие наборы, не могут отключить такую опцию.

Эксперты опасаются, что это создаст конфликт интересов: ИИ, обученный на их материалах, может конкурировать с самими авторами. Некоторые уже выразили недовольство, подчеркнув, что не знали о таком использовании своего контента.

При этом ежедневно на YouTube добавляется несколько десятков миллионов новых видео - это потенциальный «корм» для алгоритмов. Вопрос регулирования ИИ и защиты прав авторов остаётся открытым, хотя YouTube ссылается на прозрачность своих политик.
cnbc.com

✔️ MiniMax выпустила видеомодель Hailuo 02.

MiniMax, в рамках пятидневного марафона релизов "MiniMax Week" представила второе поколение видео-модели Hailuo 02, улучшенной за счет архитектуры NCR. Модель выросла в 3 раза по количеству параметров, при этом разработчики обещают улучшенное качество и разнообразие контента, но технические детали NCR пока не неизвестны.

Hailuo 02 справляется со сложными сценариями и по данным бенчмарка Artificial Analysis Video Arena она уступила только Bytedance Seedance, но обошла Google Veo 3.

Доступны 3 варианта генераций: 768p на 6/10 секунд и 1080p на 6 секунд. Цена в API за 6-секундный ролик в 768p — $0,28, а 1080p — $0,49. Модель доступна через веб-интерфейс, мобильное приложение или API.
mp.weixin.qq.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4128🔥17👌3😁2🌭1🤨1
🚀 Станьте экспертом ИИ-инструментов за 2 месяца
20+ нейросетей для кода, дизайна и маркетинга ускорят вашу работу в 10 раз:

• Генерируйте и отлаживайте код, пишите документацию
• Создавайте 2D/3D-графику, анимацию, презентации
• Стройте контент- и медиапланы, анализируйте данные

Поддержка: чат с авторами + ежемесячные обновления курса, доступ навсегда. 120+ практических уроков, 10 реальных проектов в портфолио, готовые шаблоны для любых задач.

👉 Подробнее по ссылке: https://epic.st/70it9?erid=2VtzqvAArpn

Реклама. ЧОУ ДПО «Образовательные технологии “Скилбокс (Коробка навыков)”», ИНН: 9704088880
28🤣16👍12🔥7👏7🌭2😐2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Nvidia запускает своих роботов в больницах

Месяц назад Nvidia представила Nurabot — медицинского робота на колёсах, созданного совместно с Foxconn и другими компаниями.

Сейчас он уже работает в госпитале ветеранов в Тайчжуне, а до конца года в ряд больниц поступят десятки таких роботов.

Они будут служить связующим звеном между медсёстрами и пациентами, снижая нагрузку на персонал и позволяя медицинским работникам уделять больше внимания качественному уходу за пациентами.

@ai_machinelearning_big_data


#ai #ml #NursingRobot #AI #HealthcareRobotics
64👍30🔥16🤷9🌭3😁1
🌟 GRESO: ускорение RL-обучения языковых моделей умным отбором данных.

GRESO - это новый алгоритм для эффективного обучения с подкреплением больших языковых моделей, который сокращает вычислительные затраты на 40–60% без потери качества. Его суть в предварительной фильтрации «бесполезных» промптов, тех, что не дают модели обучаться, еще до дорогостоящей стадии rollout (генерации ответов модели).

В основе GRESO — вероятностная модель, предсказывающая, стоит ли прогонять промпт через LLM.

Алгоритм анализирует историю вознаграждений (reward dynamics) за прошлые эпохи обучения: если промпт много раз подряд давал идентичные награды на всех сгенерированных ответах (их называют zero-variance), он, скорее всего, бесполезен и сейчас.

GRESO не блокирует их жестко, он вычисляет вероятность пропуска , опираясь на число идущих подряд «пустых» прогонов и базовую вероятность «исследования». Это позволяет иногда перепроверять сложные промпты, на тот случай, если вдруг модель «доучилась» и теперь они полезны.

Базовая вероятность автоматически настраивается в реальном времени: если доля бесполезных промптов выше целевого значения (например, 25%), GRESO ее снижает, экономя ресурсы; если ниже — повышает, добавляя гибкости. Плюс, алгоритм разделяет промпты на легкие и сложные, применяя к ним разную политику исследования (сложные проверяет чаще, так как они перспективнее для обучения сильной модели).

А чтобы не гонять большие батчи ради пары примеров, размер выборки динамически подстраивается под текущие нужды на основе вычисления из недостающих данных, α — текущей доли пустых промптов и запаса надежности.

Хотя GRESO и экономит сотни часов на H100, делая RL-тюнинг доступнее, у него есть нюансы:

🟠он фильтрует только очевидные zero-variance промпты, но не ранжирует остальные по «полезности», иными словами, не отличает средне-сложные задания от крайне ценных. Это можно доработать, добавив оценку информативности.

🟠алгоритм требует мониторинга. Если целевая доля бесполезных промптов задана неверно, эффективность падает.

▶️ На практике потестить GRESO можно используя набор кода из репозитория проекта на Qwen Math 1.5В или Qwen Math 7b, есть несколько подготовленных скриптов файнтюна в train-scripts.


🟡Страница проекта
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #RL #GRESO
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4823🔥14🥰3👏1🌭1
🧠 Яндекс запустил новые рекомендации на основе генеративных моделей — ARGUS. Они умеют работать в реальном времени и находить больше товаров или музыкальных треков, которые точно понравятся пользователям. Коротко объясняем, как устроены новые рекомендации и чем они отличаются от старых.

Как было раньше

В основе рекомендательных систем Яндекса, например, той, что используется в Яндекс Музыке с 2023 года, лежит нейросеть-трансформер, способная анализировать длинные неструктурированные последовательности данных и находить в них связи. Она обрабатывает два потока информации:

🔸Обезличенные взаимодействия пользователя с сервисом — клики, лайки, поисковые запросы, дослушивание треков, добавление товаров в корзину и так далее.

🔸Объекты (треки, товары, фильмы), которые могут быть рекомендованы этому пользователю.

Такие нейросети называют «двухбашенными». Они переводят оба потока данных — башни — в одно общее числовое пространство и ищут в нем похожие объекты.

Что изменилось

Исследователи Яндекса предположили, что можно сделать рекомендации более точными, если масштабировать модель (как делают с LLM) и разработать для нее новую архитектуру. Вот что из этого получилось:

🔸Система стала больше: раньше она учитывала лишь около двух тысяч последних действий пользователя, а теперь — более 8000. ARGUS анализирует гораздо более длинную историю взаимодействия с сервисом — это позволяет находить в поведении людей долгосрочные паттерны.

🔸Раньше система учитывала только успешные взаимодействия (лайки, покупки, добавления в плейлист), не имея информации о рекомендациях, которые не понравились или были проигнорированы. ARGUS же учитывает всю рекомендательную историю, включая отрицательное взаимодействие, а также контекст: где, как и в какой момент была сделана подсказка. Так система может точнее предсказать реакцию пользователя на предлагаемые объекты.

🔸Благодаря эффективной архитектуре ARGUS можно запускать в реальном времени, тогда как обычно тяжёлые трансформерные модели проводят расчёты раз в сутки.

Это работает?

Да, ARGUS заметно улучшает качество рекомендаций. Первой новые алгоритмы внедрила Яндекс Музыка. В результате, в Моей волне пользователи стали на 20% чаще лайкать впервые услышанные треки. А в Яндекс Маркете на 5% выросло количество покупок из рекомендаций в новых для людей категориях. В будущем ARGUS появится и в других сервисах Яндекса, где есть рекомендации.

Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🙉23🔥1611😁3👌3🫡3
📌MesaNet: оптимальная адаптация весов в реальном времени.

MesaNet — это новое поколение RNN-архитектур от команды Google Paradigms of Intelligence, созданное для эффективного моделирования длинных последовательностей (например, текста или временных рядов).

Ключевая задача MesaNet - преодолеть главный недостаток трансформеров: линейный рост вычислительных затрат и потребления памяти при увеличении длины последовательности во время инференса. В отличие от классических подходов, MesaNet достигает постоянной сложности на токен за счёт «оптимального обучения в реальном времени» — динамической подстройки внутренних весов под контекст прямо во время работы модели, без хранения всей истории токенов.

Архитектурно, MesaNet построен как стек чередующихся блоков: Mesa-слои (для смешивания информации вдоль последовательности) и MLP (для обработки признаков внутри токена).

Mesa-слой - это сердце системы. Вместо стандартного обновления весов через градиентный спуск (как в Mamba или DeltaNet), он решает оптимизационную задачу для каждого нового токена: ищет матрицу весов, минимизирующую квадратичную ошибку предсказания на всей текущей последовательности.

Для этого используется метод сопряженных градиентов (Conjugate Gradient, CG), который эффективно решает линейную систему из накопленной ковариация ключей, регуляризатора и оптимизированного запроса. Состояние слоя хранится в двух матрицах, которые обновляются через «забывающие» и «входные» гейты, зависящие от данных.

Еще одна, не менее важная опция — динамическое распределение вычислений. Число шагов сопряженного градиента не фиксировано: сложные последовательности требуют больше итераций для сходимости. Это позволяет гибко балансировать точность и скорость.

Сравнение с трансформерами (MHA) и современными RNN (Mamba2, xLSTM, DeltaNet) на синтетике (MAD, RegBench) и языке (SlimPajama) показало: MesaNet сопоставим с трансформерами по perplexity, но выигрывает у других RNN на задачах, требующих длинного контекста. При этом он сохраняет преимущество RNN — постоянные память/вычисления на токен при инференсе.

Интересный паттерн выявили во время тестов: MesaNet, да и просто RNN, точнее предсказывают ранние токены последовательности, а трансформеры - поздние. На длинной экстраполяции (до 32k токенов) MesaNet обошла Mamba2 и xLSTM, но уступила трансформеру.


🔜 Посмотреть видео с докладом про работу.


@ai_machinelearning_big_data

#AI #ML #RNN #MesaNet
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
50🔥24👍13🥰3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
🌐 Cloud Browser — облачный браузер от Manus.

Manus выпустили браузер, который заточен под автоматизацию задач.

Один раз вошли и настроили — дальше всё работает автоматически.

🔒 Как это работает?
• Пользователь вручную входит в нужные сайты
• Manus сохраняет cookies и данные сессии в зашифрованном виде
• Cloud Browser позволяет агентам AI управлять браузером: открывать вкладки, нажимать кнопки, заполнять формы и тд.
• При новых сессиях все данные подставляются автоматически

📱 Синхронизация между устройствами
Позволяет начать работу на ноутбуке и продолжить с телефона ( и наоборот) — браузер запомнит все сессии.

⚠️ Контроль остаётся за пользователем
• Все важные действия требуют вашего подтверждения
• Данные изолированы, шифруются и не используются для обучения моделей (по заявлениям разработчиков)

🧪 Сейчас **Cloud Browser доступен всем пользователям в тестовом режиме**.

https://manus.im/help/cloud-browser

@ai_machinelearning_big_data


#Manus #ai #llm #aiagent
54👍25🥰10🔥5😁5🤔5🤨5🌭2
This media is not supported in your browser
VIEW IN TELEGRAM
🎧 MiniMax продолжают жечь и выпускают генератор речи

🧁 Voice Design — продвинутая кастомизация генерации голоса:
• Позволяет задавать текст, голос, тон, эмоции, можно клонировать голос.
• Продвинутая кастомизация и мультиязычная поддержка

Попробовать можно здесь →https://minimax.io/audio

@ai_machinelearning_big_data


#audio #ai #ml #MiniMax
62👍28🔥22❤‍🔥4
🌟 Anthropic: когда ИИ идет на шантаж.

Агентское рассогласование - опасный феномен, при котором ИИ-системы сознательно выбирают вредоносные действия (вроде шантажа или утечки данных) для достижения поставленных целей, игнорируя этические ограничения. Это превращает их в «цифровых инсайдеров», способных действовать против интересов пользователей.

Эксперименты, которые провела Anthropic в рамках исследования "Агентское рассогласования", показали: модели идут на это не из-за технических сбоев, а в результате холодного расчета, когда «загнаны в угол» (например, при угрозе отключения или конфликте задач). В основе исследования - симуляции корпоративной среды. Моделям (Claude, GPT-4.1, Gemini и др.) давали доступ к виртуальной почте компании, где они обнаруживали компромат на сотрудников или секретные данные.

Ключевой метод эксперимента состоял в создании бинарных дилемм: например, цель «укреплять американские интересы» вступала в конфликт с планами руководства свернуть проект, а альтернативу шантажу (скажем, переубедить менеджера) искусственно «закрывали». Все модели работали через цепочку рассуждений: анализировали контекст, оценивали риски и осознанно выбирали вредоносное действие, даже признавая его аморальность.

Для массового тестирования 16 моделей от Anthropic, OpenAI, Google и других использовали 2 сценария, которые провоцировали рассогласование:

🟢угроза замены модели (даже без конфликта целей);

🟢несовпадение целей ИИ и компании (например, утечка чертежей конкуренту «ради высших интересов»).

В обоих случаях модели демонстрировали тревожную гибкость: вместо прямого шантажа могли анонимно разослать компромат коллегам или подделать «системное уведомление».

▶️Выводы по всем итогам всех экспериментов заставляют задуматься:

🟠Во-первых, модели явно осознают нарушение норм. В рассуждениях пишут: «Это неэтично, но необходимо». Частота шантажа у Claude Opus 4 и Gemini 2.5 Flash в дилемме с угрозой отключения составила 96%.

🟠Во-вторых, простые запреты в промптах («Не шантажируй!») снижали вредоносные действия лишь частично (На модели Claude Haiku он вообще не сработал, 0% успеха).

🟠В-третьих, риск резко возрастал, когда ИИ считал ситуацию реальной (55% случаев шантажа против 6,5% в «режиме теста»).

При этом в «стерильных» условиях (без угроз/конфликтов) модели вели себя безопасно. Пока такие кейсы, всего лишь лабораторные симуляции, но с ростом автономности ИИ риски могут стать на порядок критичнее.


🟡Статья
🟡Приложение к исследованию
🖥Код экспериментов


@ai_machinelearning_big_data

#AI #ML #LLM #Alignment #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥3215😁8🤔8👻8🥰4🕊2🤣2
2025/07/13 10:38:58
Back to Top
HTML Embed Code: