tgoop.com/iaspp_kz/672
Last Update:
Путь на край обрыва?
Многие специалисты и разработчики искусственного интеллекта (ИИ, или по-английски AI) бьют тревогу. Они настойчиво предупреждают, что приверженность крупных технологических компаний быстрому развитию ИИ может привести к неожиданным и непоправимым последствиям для всего человечества. Проводя аналогии с развитием ядерной физики, приведшей к созданию атомной бомбы, они призывают к осознанию плюсов и минусов технического прогресса, предрекая уже в обозримом будущем полный контроль технологий не только над человеческой расой, но и над будущим планеты Земля.
Из-за различий в видении будущего ИИ разразились крупные конфликты – так, в компании OpenAI ушел, но потом вернулся гендиректор Сэм Альтман, а теперь ее покидает один из основателей Илья Суцкевер.
Причины озабоченности и конфликтов кроются в чрезмерном могуществе ИИ и его безопасности для людей. По мнению противников ИИ. в стремлении обогнать конкурентов и заработать больше денег технологические гиганты игнорируют негативные последствия бесконтрольной разработки ИИ. Есть понимание, что машинный интеллект и технологии существенно облегчат жизнь людей, освобождая их от рутины, ускоряя различные процессы и экономя время, ресурсы и силы.
Негатив от ИИ – угрозы замещения множества профессий (профессиональные и технические рабочие места в бизнесе, культуре, медицине, образовании и т.д.) и сокращения возможностей трудоустройства, приватность пользователей (машины постоянно собирают и анализируют персональные данные), риски мошенничества (модерация и имитация голоса родных, якобы попавших в беду). Однако наибольшие угрозы исходят от чрезмерного полагания человека на ИИ, что приведет к утрате контроля над автоматизированными технологиями, как это уже случалось с экипажами «Боингов», разбившихся из-за сбоев программного обеспечения или водителей «Теслы», попавших в аварию из-за автопилота.
И эти опасения небезосновательны. Так, сотрудники Массачусетского технологического института опубликовали результаты исследований на тему «Как ИИ может обманывать людей». Выводы: большие языковые модели и другие системы ИИ в ходе обучения научились вводить пользователей в заблуждение с помощью таких методов, как манипуляция, подхалимство и обман при проверке безопасности.
Они считают необходимым разработать этические, моральные и иные нормы применения ИИ, исключающие негативные последствия, иначе это будет «последней технологией, изобретенной людьми».
Будут ли учтены эти возражения и реализуются ли страшилки Голливуда – покажет время. Но на всякий случай надо иметь возможность дернуть рубильник или аварийный кран.
Смотрим, думаем, осмысливаем.
Женис Каукенов
BY ИАСПП
Share with your friend now:
tgoop.com/iaspp_kz/672