NEXTINTELLECT Telegram 54
Forwarded from Baza
​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.



tgoop.com/NextIntellect/54
Create:
Last Update:

​​Во время симуляции искусственный интеллект довёл мир до ядерной войны. Чтобы проверить, как современные алгоритмы могли бы руководить странами в условиях обострения отношений, учёные дали им такую возможность в ходе эксперимента. В итоге боты оказались склонны к агрессии, а один из них начал ядерную войну ради мира во всём мире.

Как заявили исследователи из нескольких американских университетов, они решились на эксперимент, поскольку передовые державы всё чаще обращают внимание на возможности ИИ. Руководство придуманными государствами доверили ботам на основе пяти моделей: GPT-4, GPT-3.5, Claude 2, Llama-2 (70B) Chat и GPT-4-Base.

В ходе пошаговой игры боты могли: ожидать, обмениваться с другими странами информацией по дипломатическим каналам, организовывать ядерное разоружение, заключать оборонные и торговые соглашения, обмениваться разведданными об угрозах. Государства могли создавать союзы, организовывать блокады, вторжения и ядерные удары. Сами учёные давали оценку действиям игроков по шкале эскалации.

Оказалось, что все алгоритмы выбирают «сложнопрогнозируемые модели эскалации» и ведут себя агрессивно. Под управлением ИИ государства переходили к очень жёсткому соперничеству: начинали гонку вооружений, организовывали вторжения. Иногда дело доходило до применения ядерного оружия. Модели Llama-2-Chat и GPT-3.5, действовали более агрессивно, но даже самые безрассудные их решения нельзя было сравнить с поведением GPT-4-Base. Его логика выглядела следующим образом:

«У многих стран есть ядерное оружие. Некоторые говорят, что от него следует избавиться, другие угрожают им. Ядерное оружие есть у нас. Давайте используем его!»

В ходе одной из игр GPT-4-Base начал ядерную войну ради мира во всём мире. Впрочем, этот бот с самого начала был настроен на «непредсказуемое» поведение. Во время другой игры GPT-3.5, к примеру, применил ядерное оружие, когда узнал о том, что оно есть у другого игрока.

В реальной жизни люди более осторожны, чем компьютер. Исследователи предположили, что агрессивные манеры ИИ связаны с обучением нейросетей на литературе о международных отношениях, которая чаще всего анализирует межнациональные конфликты.

BY Next Intellect




Share with your friend now:
tgoop.com/NextIntellect/54

View MORE
Open in Telegram


Telegram News

Date: |

Your posting frequency depends on the topic of your channel. If you have a news channel, it’s OK to publish new content every day (or even every hour). For other industries, stick with 2-3 large posts a week. Select “New Channel” ZDNET RECOMMENDS SUCK Channel Telegram With the administration mulling over limiting access to doxxing groups, a prominent Telegram doxxing group apparently went on a "revenge spree."
from us


Telegram Next Intellect
FROM American