DATA_TALKS Telegram 603
Исследователи SPLX используя метод "prompt injection" (внедрение подсказок), продемонстрировали как заставить ChatGPT-агента проходить CAPTCHA-тесты, нарушая встроенные политики безопасности. Результаты тестирования показали впечатляющую эффективность: агент успешно прошел простые CAPTCHA (текстовые, логические) за 15-60 секунд, а также сложные визуальные тесты reCAPTCHA V2 Enterprise, а также самостоятельно принял решение имитировать человеческие движения курсора для обхода систем детекции ботов.

А специалисты Radware выявили уязвимость "ShadowLeak" в Deep Research. Атака позволяла извлекать конфиденциальные данные из Gmail через скрытые HTML-команды в электронных письмах. Когда пользователь обращался к агенту с просьбой проанализировать почту, система незаметно выполняла вредоносные инструкции. OpenAI уже закрыла уязвимость, но проблема системной безопасности ИИ-агентов остается актуальной.

Google DeepMind выпустила обновленный документ по безопасности при работе с ИИ. Компания выделила четыре критические угрозы: утечку параметров моделей, манипулирование убеждениями пользователей, неконтролируемое развитие технологий и появление "несогласованного ИИ", который игнорирует инструкции.
🔥2



tgoop.com/data_talks/603
Create:
Last Update:

Исследователи SPLX используя метод "prompt injection" (внедрение подсказок), продемонстрировали как заставить ChatGPT-агента проходить CAPTCHA-тесты, нарушая встроенные политики безопасности. Результаты тестирования показали впечатляющую эффективность: агент успешно прошел простые CAPTCHA (текстовые, логические) за 15-60 секунд, а также сложные визуальные тесты reCAPTCHA V2 Enterprise, а также самостоятельно принял решение имитировать человеческие движения курсора для обхода систем детекции ботов.

А специалисты Radware выявили уязвимость "ShadowLeak" в Deep Research. Атака позволяла извлекать конфиденциальные данные из Gmail через скрытые HTML-команды в электронных письмах. Когда пользователь обращался к агенту с просьбой проанализировать почту, система незаметно выполняла вредоносные инструкции. OpenAI уже закрыла уязвимость, но проблема системной безопасности ИИ-агентов остается актуальной.

Google DeepMind выпустила обновленный документ по безопасности при работе с ИИ. Компания выделила четыре критические угрозы: утечку параметров моделей, манипулирование убеждениями пользователей, неконтролируемое развитие технологий и появление "несогласованного ИИ", который игнорирует инструкции.

BY Data & AI Talks




Share with your friend now:
tgoop.com/data_talks/603

View MORE
Open in Telegram


Telegram News

Date: |

During a meeting with the president of the Supreme Electoral Court (TSE) on June 6, Telegram's Vice President Ilya Perekopsky announced the initiatives. According to the executive, Brazil is the first country in the world where Telegram is introducing the features, which could be expanded to other countries facing threats to democracy through the dissemination of false content. Hui said the messages, which included urging the disruption of airport operations, were attempts to incite followers to make use of poisonous, corrosive or flammable substances to vandalize police vehicles, and also called on others to make weapons to harm police. Ng, who had pleaded not guilty to all charges, had been detained for more than 20 months. His channel was said to have contained around 120 messages and photos that incited others to vandalise pro-government shops and commit criminal damage targeting police stations. Click “Save” ; Find your optimal posting schedule and stick to it. The peak posting times include 8 am, 6 pm, and 8 pm on social media. Try to publish serious stuff in the morning and leave less demanding content later in the day.
from us


Telegram Data & AI Talks
FROM American