GULAGDIGITAL Telegram 2767
Взаимодействия человека и машины. Кейс Gospel или UX во время войны

В рамках войны Израиля и ХАМАС Армия обороны Израиля (ЦАХАЛ) использовала искусственный интеллект для быстрого и автоматического выполнения большей части процесса определения того, что и кого бомбить. В эти месяцы Израиль значительно расширил бомбардировки сектора Газа, которые в предыдущих войнах были ограничены из-за того, что у израильских ВВС закончились цели.

Эти инструменты включают Gospel, ИИ, который автоматически просматривает данные наблюдения в поисках зданий, оборудования и людей, предположительно принадлежащих врагу, и, обнаружив их, рекомендует цели бомбардировки аналитику-человеку, который затем может решить, передавать ли ее на поле боя. Другим является Lavender, «база данных на базе ИИ», в которой перечислены десятки тысяч палестинцев, связанных ИИ с ХАМАС или Палестинским исламским джихадом, и которая также используется для рекомендации.

Это была википедия, для того, чтобы погрузить читателей в контекст повествования.

Как работает Gospel? Он автоматически предоставляет рекомендации по нацеливанию человеку-аналитику, который решает, следует ли передавать их солдатам в полевых условиях. Рекомендации могут быть любыми: от отдельных бойцов, ракетных установок, командных пунктов Хамаса до частных домов подозреваемых членов Хамаса или Исламского джихада. Вопрос о том, что в цель все равно попадает ракета, которая наносит ущерб всем окружающим пока опустим.

На каком объеме данных обучали систему? Это неизвестно, но датасет был якобы составлен на основании данных, которые собирали по ХАМАС и его членам и решений, которые принимали военные аналитики и офицеры. Есть небольшое интервью начала 2024 года.

“По сути, система имитирует то, что группа офицеров разведки делала в прошлом. Израильские военные заявляют, что все рекомендации проверяются специалистами-аналитиками. Это такой Human-in-the-Loop, только вместо аннотаторов данных и разметчиков - военные аналитики. Но когда дело доходит до генерации целей, система кажется довольно быстрой” https://www.npr.org/transcripts/1218643254

The Guardian, ссылаясь на неназванных экспертов, пишет, что «системы поддержки принятия решений на основе ИИ для целеуказания» обычно «анализируют большие массивы информации из различных источников, таких как кадры с беспилотников, перехваченные сообщения, данные наблюдения», а также «перемещения и модели поведения отдельных лиц и больших групп». https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
NPR по ссылке выше цитирует Блейза Мишталя из Еврейского института национальной безопасности Америки, который говорит, что данные, вероятно, поступают из самых разных источников, включая такие вещи, как сообщения с мобильных телефонов, спутниковые снимки, кадры с беспилотников и сейсмические датчики. Проблема в том, что в этом же интервью он говорит, что система просто имитирует решения принятые группой офицеров-разведчиков. Но делает это намного быстрее и ее использовали еще в 2021 году.

Якобы у этого Gospel была и есть своя база данных Lavender , которая также хранила информацию о пользователях, связанных с ХАМАС, связи, родственники, фотографии. В любом случае уже в апреле 2024 года ИИ-агент выставил 37.000 тысяч целей. Официальная погрешность агента составляла 90 процентов, те 3700 человек были помечены как цели ложно и уничтожены… но на самом деле атаковались не сами цели, а их дома и дома, где эти цели находились - пресловутый сопутствующий ущерб.
Вот статья уже за апрель месяц https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes



tgoop.com/gulagdigital/2767
Create:
Last Update:

Взаимодействия человека и машины. Кейс Gospel или UX во время войны

В рамках войны Израиля и ХАМАС Армия обороны Израиля (ЦАХАЛ) использовала искусственный интеллект для быстрого и автоматического выполнения большей части процесса определения того, что и кого бомбить. В эти месяцы Израиль значительно расширил бомбардировки сектора Газа, которые в предыдущих войнах были ограничены из-за того, что у израильских ВВС закончились цели.

Эти инструменты включают Gospel, ИИ, который автоматически просматривает данные наблюдения в поисках зданий, оборудования и людей, предположительно принадлежащих врагу, и, обнаружив их, рекомендует цели бомбардировки аналитику-человеку, который затем может решить, передавать ли ее на поле боя. Другим является Lavender, «база данных на базе ИИ», в которой перечислены десятки тысяч палестинцев, связанных ИИ с ХАМАС или Палестинским исламским джихадом, и которая также используется для рекомендации.

Это была википедия, для того, чтобы погрузить читателей в контекст повествования.

Как работает Gospel? Он автоматически предоставляет рекомендации по нацеливанию человеку-аналитику, который решает, следует ли передавать их солдатам в полевых условиях. Рекомендации могут быть любыми: от отдельных бойцов, ракетных установок, командных пунктов Хамаса до частных домов подозреваемых членов Хамаса или Исламского джихада. Вопрос о том, что в цель все равно попадает ракета, которая наносит ущерб всем окружающим пока опустим.

На каком объеме данных обучали систему? Это неизвестно, но датасет был якобы составлен на основании данных, которые собирали по ХАМАС и его членам и решений, которые принимали военные аналитики и офицеры. Есть небольшое интервью начала 2024 года.

“По сути, система имитирует то, что группа офицеров разведки делала в прошлом. Израильские военные заявляют, что все рекомендации проверяются специалистами-аналитиками. Это такой Human-in-the-Loop, только вместо аннотаторов данных и разметчиков - военные аналитики. Но когда дело доходит до генерации целей, система кажется довольно быстрой” https://www.npr.org/transcripts/1218643254

The Guardian, ссылаясь на неназванных экспертов, пишет, что «системы поддержки принятия решений на основе ИИ для целеуказания» обычно «анализируют большие массивы информации из различных источников, таких как кадры с беспилотников, перехваченные сообщения, данные наблюдения», а также «перемещения и модели поведения отдельных лиц и больших групп». https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
NPR по ссылке выше цитирует Блейза Мишталя из Еврейского института национальной безопасности Америки, который говорит, что данные, вероятно, поступают из самых разных источников, включая такие вещи, как сообщения с мобильных телефонов, спутниковые снимки, кадры с беспилотников и сейсмические датчики. Проблема в том, что в этом же интервью он говорит, что система просто имитирует решения принятые группой офицеров-разведчиков. Но делает это намного быстрее и ее использовали еще в 2021 году.

Якобы у этого Gospel была и есть своя база данных Lavender , которая также хранила информацию о пользователях, связанных с ХАМАС, связи, родственники, фотографии. В любом случае уже в апреле 2024 года ИИ-агент выставил 37.000 тысяч целей. Официальная погрешность агента составляла 90 процентов, те 3700 человек были помечены как цели ложно и уничтожены… но на самом деле атаковались не сами цели, а их дома и дома, где эти цели находились - пресловутый сопутствующий ущерб.
Вот статья уже за апрель месяц https://www.theguardian.com/world/2024/apr/03/israel-gaza-ai-database-hamas-airstrikes

BY Цифровой геноцид


Share with your friend now:
tgoop.com/gulagdigital/2767

View MORE
Open in Telegram


Telegram News

Date: |

Avoid compound hashtags that consist of several words. If you have a hashtag like #marketingnewsinusa, split it into smaller hashtags: “#marketing, #news, #usa. Polls Today, we will address Telegram channels and how to use them for maximum benefit. The channel also called on people to turn out for illegal assemblies and listed the things that participants should bring along with them, showing prior planning was in the works for riots. The messages also incited people to hurl toxic gas bombs at police and MTR stations, he added. Telegram message that reads: "Bear Market Screaming Therapy Group. You are only allowed to send screaming voice notes. Everything else = BAN. Text pics, videos, stickers, gif = BAN. Anything other than screaming = BAN. You think you are smart = BAN.
from us


Telegram Цифровой геноцид
FROM American