AIHAPPENS Telegram 211
Я послушал Сэма Альтмана в сенате США по поводу регулирования ИИ-моделей. Это было довольно интересное, но не самое благодарное занятие, так как их английский бывает сложноват (тут должно быть нативная реклама skyeng:) ) . Вот краткий обзор:


1) Биологическое оружие: он предупредил о возможном неправомерном использовании ИИ в создании биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.

2) Потеря работы: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.

3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и регулирования деятельности ИИ, если их возможности превышают определенный порог.

4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать модели ИИ перед развертыванием, включая тесты на самовоспроизведение и эксфильтрацию данных.

5) Независимые аудиты: он рекомендовал проведение независимых аудитов, чтобы убедиться, что модели ИИ соответствуют установленным стандартам безопасности.

6) ИИ как инструмент: Альтман подчеркнул, что ИИ, особенно продвинутые модели, такие как GPT-4, следует рассматривать как инструменты, а не как разумные существа.

7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.

8) Военные приложения: Альтман признал потенциал использования ИИ в военных приложениях, таких как автономные дроны, и призвал к принятию правил, регулирующих такое использование.

9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.

Также он упомянул, что мы, возможно, не сможем контролировать Китай, но с ним надо идти договариваться. По поводу тестирования и регулирования моделей ИИ, предложенные критерии включают возможность создания биологических образцов, манипуляцию мнением людей, объем потраченной вычислительной мощности и т.д.

В целом, важным трендом является то, что Сэму стоит строить "отношения" с государством. Я надеюсь, что они не пойдут по пути Европы, о котором писал выше.

@aihappens
👍7124🤔10❤‍🔥7🤬2🔥1🙉1



tgoop.com/aihappens/211
Create:
Last Update:

Я послушал Сэма Альтмана в сенате США по поводу регулирования ИИ-моделей. Это было довольно интересное, но не самое благодарное занятие, так как их английский бывает сложноват (тут должно быть нативная реклама skyeng:) ) . Вот краткий обзор:


1) Биологическое оружие: он предупредил о возможном неправомерном использовании ИИ в создании биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.

2) Потеря работы: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.

3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и регулирования деятельности ИИ, если их возможности превышают определенный порог.

4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать модели ИИ перед развертыванием, включая тесты на самовоспроизведение и эксфильтрацию данных.

5) Независимые аудиты: он рекомендовал проведение независимых аудитов, чтобы убедиться, что модели ИИ соответствуют установленным стандартам безопасности.

6) ИИ как инструмент: Альтман подчеркнул, что ИИ, особенно продвинутые модели, такие как GPT-4, следует рассматривать как инструменты, а не как разумные существа.

7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.

8) Военные приложения: Альтман признал потенциал использования ИИ в военных приложениях, таких как автономные дроны, и призвал к принятию правил, регулирующих такое использование.

9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.

Также он упомянул, что мы, возможно, не сможем контролировать Китай, но с ним надо идти договариваться. По поводу тестирования и регулирования моделей ИИ, предложенные критерии включают возможность создания биологических образцов, манипуляцию мнением людей, объем потраченной вычислительной мощности и т.д.

В целом, важным трендом является то, что Сэму стоит строить "отношения" с государством. Я надеюсь, что они не пойдут по пути Европы, о котором писал выше.

@aihappens

BY AI Happens


Share with your friend now:
tgoop.com/aihappens/211

View MORE
Open in Telegram


Telegram News

Date: |

In the “Bear Market Screaming Therapy Group” on Telegram, members are only allowed to post voice notes of themselves screaming. Anything else will result in an instant ban from the group, which currently has about 75 members. Telegram channels fall into two types: During a meeting with the president of the Supreme Electoral Court (TSE) on June 6, Telegram's Vice President Ilya Perekopsky announced the initiatives. According to the executive, Brazil is the first country in the world where Telegram is introducing the features, which could be expanded to other countries facing threats to democracy through the dissemination of false content. Ng was convicted in April for conspiracy to incite a riot, public nuisance, arson, criminal damage, manufacturing of explosives, administering poison and wounding with intent to do grievous bodily harm between October 2019 and June 2020. Telegram Channels requirements & features
from us


Telegram AI Happens
FROM American