tgoop.com/gulagdigital/2767
Last Update:
Взаимодействия человека и машины. Кейс Gospel или UX во время войны
В рамках войны Израиля и ХАМАС Армия обороны Израиля (ЦАХАЛ) использовала искусственный интеллект для быстрого и автоматического выполнения большей части процесса определения того, что и кого бомбить. В эти месяцы Израиль значительно расширил бомбардировки сектора Газа, которые в предыдущих войнах были ограничены из-за того, что у израильских ВВС закончились цели.
Эти инструменты включают Gospel, ИИ, который автоматически просматривает данные наблюдения в поисках зданий, оборудования и людей, предположительно принадлежащих врагу, и, обнаружив их, рекомендует цели бомбардировки аналитику-человеку, который затем может решить, передавать ли ее на поле боя. Другим является Lavender, «база данных на базе ИИ», в которой перечислены десятки тысяч палестинцев, связанных ИИ с ХАМАС или Палестинским исламским джихадом, и которая также используется для рекомендации.
Это была википедия, для того, чтобы погрузить читателей в контекст повествования.
Как работает Gospel? Он автоматически предоставляет рекомендации по нацеливанию человеку-аналитику, который решает, следует ли передавать их солдатам в полевых условиях. Рекомендации могут быть любыми: от отдельных бойцов, ракетных установок, командных пунктов Хамаса до частных домов подозреваемых членов Хамаса или Исламского джихада. Вопрос о том, что в цель все равно попадает ракета, которая наносит ущерб всем окружающим пока опустим.
На каком объеме данных обучали систему? Это неизвестно, но датасет был якобы составлен на основании данных, которые собирали по ХАМАС и его членам и решений, которые принимали военные аналитики и офицеры. Есть небольшое интервью начала 2024 года.
“По сути, система имитирует то, что группа офицеров разведки делала в прошлом. Израильские военные заявляют, что все рекомендации проверяются специалистами-аналитиками. Это такой Human-in-the-Loop, только вместо аннотаторов данных и разметчиков - военные аналитики. Но когда дело доходит до генерации целей, система кажется довольно быстрой” https://www.npr.org/transcripts/1218643254
The Guardian, ссылаясь на неназванных экспертов, пишет, что «системы поддержки принятия решений на основе ИИ для целеуказания» обычно «анализируют большие массивы информации из различных источников, таких как кадры с беспилотников, перехваченные сообщения, данные наблюдения», а также «перемещения и модели поведения отдельных лиц и больших групп». https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
NPR по ссылке выше цитирует Блейза Мишталя из Еврейского института национальной безопасности Америки, который говорит, что данные, вероятно, поступают из самых разных источников, включая такие вещи, как сообщения с мобильных телефонов, спутниковые снимки, кадры с беспилотников и сейсмические датчики. Проблема в том, что в этом же интервью он говорит, что система просто имитирует решения принятые группой офицеров-разведчиков. Но делает это намного быстрее и ее использовали еще в 2021 году.
Якобы у этого Gospel была и есть своя база данных Lavender , которая также хранила информацию о пользователях, связанных с ХАМАС, связи, родственники, фотографии. В любом случае уже в апреле 2024 года ИИ-агент выставил 37.000 тысяч целей. Официальная погрешность агента составляла 90 процентов, те 3700 человек были помечены как цели ложно и уничтожены… но на самом деле атаковались не сами цели, а их дома и дома, где эти цели находились - пресловутый сопутствующий ущерб.
Вот статья уже за апрель месяц https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes
BY Цифровой геноцид
Share with your friend now:
tgoop.com/gulagdigital/2767