IASPP_KZ Telegram 672
Путь на край обрыва?

Многие специалисты и разработчики искусственного интеллекта (ИИ, или по-английски AI) бьют тревогу. Они настойчиво предупреждают, что приверженность крупных технологических компаний быстрому развитию ИИ может привести к неожиданным и непоправимым последствиям для всего человечества. Проводя аналогии с развитием ядерной физики, приведшей к созданию атомной бомбы, они призывают к осознанию плюсов и минусов технического прогресса, предрекая уже в обозримом будущем полный контроль технологий не только над человеческой расой, но и над будущим планеты Земля.
Из-за различий в видении будущего ИИ разразились крупные конфликты – так, в компании OpenAI ушел, но потом вернулся гендиректор Сэм Альтман, а теперь ее покидает один из основателей Илья Суцкевер.

Причины озабоченности и конфликтов кроются в чрезмерном могуществе ИИ и его безопасности для людей. По мнению противников ИИ. в стремлении обогнать конкурентов и заработать больше денег технологические гиганты игнорируют негативные последствия бесконтрольной разработки ИИ. Есть понимание, что машинный интеллект и технологии существенно облегчат жизнь людей, освобождая их от рутины, ускоряя различные процессы и экономя время, ресурсы и силы.
Негатив от ИИ – угрозы замещения множества профессий (профессиональные и технические рабочие места в бизнесе, культуре, медицине, образовании и т.д.) и сокращения возможностей трудоустройства, приватность пользователей (машины постоянно собирают и анализируют персональные данные), риски мошенничества (модерация и имитация голоса родных, якобы попавших в беду). Однако наибольшие угрозы исходят от чрезмерного полагания человека на ИИ, что приведет к утрате контроля над автоматизированными технологиями, как это уже случалось с экипажами «Боингов», разбившихся из-за сбоев программного обеспечения или водителей «Теслы», попавших в аварию из-за автопилота.

И эти опасения небезосновательны. Так, сотрудники Массачусетского технологического института опубликовали результаты исследований на тему «Как ИИ может обманывать людей». Выводы: большие языковые модели и другие системы ИИ в ходе обучения научились вводить пользователей в заблуждение с помощью таких методов, как манипуляция, подхалимство и обман при проверке безопасности.
Они считают необходимым разработать этические, моральные и иные нормы применения ИИ, исключающие негативные последствия, иначе это будет «последней технологией, изобретенной людьми».

Будут ли учтены эти возражения и реализуются ли страшилки Голливуда – покажет время. Но на всякий случай надо иметь возможность дернуть рубильник или аварийный кран.

Смотрим, думаем, осмысливаем.

Женис Каукенов



tgoop.com/iaspp_kz/672
Create:
Last Update:

Путь на край обрыва?

Многие специалисты и разработчики искусственного интеллекта (ИИ, или по-английски AI) бьют тревогу. Они настойчиво предупреждают, что приверженность крупных технологических компаний быстрому развитию ИИ может привести к неожиданным и непоправимым последствиям для всего человечества. Проводя аналогии с развитием ядерной физики, приведшей к созданию атомной бомбы, они призывают к осознанию плюсов и минусов технического прогресса, предрекая уже в обозримом будущем полный контроль технологий не только над человеческой расой, но и над будущим планеты Земля.
Из-за различий в видении будущего ИИ разразились крупные конфликты – так, в компании OpenAI ушел, но потом вернулся гендиректор Сэм Альтман, а теперь ее покидает один из основателей Илья Суцкевер.

Причины озабоченности и конфликтов кроются в чрезмерном могуществе ИИ и его безопасности для людей. По мнению противников ИИ. в стремлении обогнать конкурентов и заработать больше денег технологические гиганты игнорируют негативные последствия бесконтрольной разработки ИИ. Есть понимание, что машинный интеллект и технологии существенно облегчат жизнь людей, освобождая их от рутины, ускоряя различные процессы и экономя время, ресурсы и силы.
Негатив от ИИ – угрозы замещения множества профессий (профессиональные и технические рабочие места в бизнесе, культуре, медицине, образовании и т.д.) и сокращения возможностей трудоустройства, приватность пользователей (машины постоянно собирают и анализируют персональные данные), риски мошенничества (модерация и имитация голоса родных, якобы попавших в беду). Однако наибольшие угрозы исходят от чрезмерного полагания человека на ИИ, что приведет к утрате контроля над автоматизированными технологиями, как это уже случалось с экипажами «Боингов», разбившихся из-за сбоев программного обеспечения или водителей «Теслы», попавших в аварию из-за автопилота.

И эти опасения небезосновательны. Так, сотрудники Массачусетского технологического института опубликовали результаты исследований на тему «Как ИИ может обманывать людей». Выводы: большие языковые модели и другие системы ИИ в ходе обучения научились вводить пользователей в заблуждение с помощью таких методов, как манипуляция, подхалимство и обман при проверке безопасности.
Они считают необходимым разработать этические, моральные и иные нормы применения ИИ, исключающие негативные последствия, иначе это будет «последней технологией, изобретенной людьми».

Будут ли учтены эти возражения и реализуются ли страшилки Голливуда – покажет время. Но на всякий случай надо иметь возможность дернуть рубильник или аварийный кран.

Смотрим, думаем, осмысливаем.

Женис Каукенов

BY ИАСПП


Share with your friend now:
tgoop.com/iaspp_kz/672

View MORE
Open in Telegram


Telegram News

Date: |

“Hey degen, are you stressed? Just let it all out,” he wrote, along with a link to join the group. ZDNET RECOMMENDS Hui said the messages, which included urging the disruption of airport operations, were attempts to incite followers to make use of poisonous, corrosive or flammable substances to vandalize police vehicles, and also called on others to make weapons to harm police. Write your hashtags in the language of your target audience. 1What is Telegram Channels?
from us


Telegram ИАСПП
FROM American