tgoop.com/nekidaem_official/765
Last Update:
Кажется, история про Терминатора становится реальной
или Маск, Возняк и другие эксперты против Скайнета
Шутки шутками, а Илон Маск (глава SpaceX), Стив Возняк (соучредитель Apple) и более тысячи исследователей искусственного интеллекта призывают немедленно остановить обучение систем искусственного интеллекта, которые являются более мощными, чем GPT-4.
Причина — возможность возникновения серьёзной опасности для общества и человечества при выходе систем из-под контроля.
Собственно основной фактор — управляемость и контроль любых систем. Именно поэтому в официальном письме Future of Life предлагается запретить развитие таких систем минимум на шесть месяцев.
За это время предполагается провести анализ потенциальных сценариев и разработать системы защиты от возможных рисков и контроля за действиями систем ИИ.
А как вы считаете, действительно ли ИИ могут нести в себе риск или это не более, чем маркетинговая уловка, которая нужна техно-компаниям для отсрочки и маневра?
BY НеКидаем честная веб-разработка и всё о ней
Share with your friend now:
tgoop.com/nekidaem_official/765