tgoop.com/data_talks/603
Last Update:
Исследователи SPLX используя метод "prompt injection" (внедрение подсказок), продемонстрировали как заставить ChatGPT-агента проходить CAPTCHA-тесты, нарушая встроенные политики безопасности. Результаты тестирования показали впечатляющую эффективность: агент успешно прошел простые CAPTCHA (текстовые, логические) за 15-60 секунд, а также сложные визуальные тесты reCAPTCHA V2 Enterprise, а также самостоятельно принял решение имитировать человеческие движения курсора для обхода систем детекции ботов.
А специалисты Radware выявили уязвимость "ShadowLeak" в Deep Research. Атака позволяла извлекать конфиденциальные данные из Gmail через скрытые HTML-команды в электронных письмах. Когда пользователь обращался к агенту с просьбой проанализировать почту, система незаметно выполняла вредоносные инструкции. OpenAI уже закрыла уязвимость, но проблема системной безопасности ИИ-агентов остается актуальной.
Google DeepMind выпустила обновленный документ по безопасности при работе с ИИ. Компания выделила четыре критические угрозы: утечку параметров моделей, манипулирование убеждениями пользователей, неконтролируемое развитие технологий и появление "несогласованного ИИ", который игнорирует инструкции.
BY Data & AI Talks

Share with your friend now:
tgoop.com/data_talks/603