ZA_4_MORYA Telegram 120
Вчера многие говорили о том, что Маск подписал письмо с призывом остановить разработку всех ИИ-систем, более продвинутых, чем GPT-4.

Можно сослаться на эксцентричность Маска, но в списке подписантов много важных для ИТ-индустрии людей: Стив Возняк, Юваль Ной Харари, немало сотрудников ИИ-стартапов и еще больше профессоров – в том числе и тех, кто стоял у самых истоков современных нейронных сетей, вроде Йошуа Бенжио.

Возникает два вопроса:

Первый: почему умные люди становятся неолуддитами и пытаются остановить прогресс?

Второй: действительно ли развитие ИИ могут приостановить?

Начнем с первого. В самом письме цитируется несколько причин. Что, если машины заполнят наш мир пропагандой? А если роботы займут все рабочие места? И, наконец, уверены ли мы, что не потеряем контроль за нашей цивилизацией?      

Последний тезис может показаться радикальным, но именно он – причина, по которой многие оставили свою подпись под документом (хотя и не все – есть те, кто больше обеспокоен краткосрочными эффектами).  

Есть много аргументов за то, почему ИИ может уничтожить человечество, но сфокусируемся на одном, самом известном и элегантном. Он состоит из двух частей:

(1)  Допустим, нам удастся создать ИИ, равный по способностям человеческому мозгу. В отличие от человека, он не нуждается в отдыхе, не забывает то, что однажды выучил, и может получить доступ к колоссальным вычислительным ресурсам – а главное, может улучшать сам себя. Он умеет писать код, а значит, может создать ИИ+ - интеллект, хотя бы немного превосходящий человеческий, который, в свою очередь, создаст еще более производительную модель. Получается, что создание «человеческого» ИИ неизбежно приведет к появлению «сверхчеловеческого» (лучший анализ этого аргумента – в статье Чалмерса).

(2)  Если появится сверхчеловеческий интеллект, то нет никаких гарантий, что его цели будут соответствовать человеческим – это та самая AI Alignment Problem. В упрощенном виде - знаменитый «аргумент о скрепках». Допустим, человечество создало сверхчеловеческий разум, в мозг которого мы заложили главную цель – производить скрепки. Со временем этот ИИ поймет, что для максимизации числа скрепок желательно превратить в заводы по их производству всю поверхность Земли, а в идеале в скрепки должна превратиться вся материя во Вселенной – включая, конечно, и довольно бесполезных людей. Какую бы цель мы не заложили в искусственный разум, мы не понимаем, как она будет интерпретирована (за деталями - к Бострому).

Если вы впервые читаете эти аргументы, то они могут показаться вам фантасмагорическим бредом, место которому - в голливудских боевиках. Их разделяют даже не все подписанты. Но раз уж об этом всерьез спорят тысячи блестяще образованных людей, то нам точно стоит хотя бы задуматься.

Теперь ко второму вопросу - получится ли приостановить развитие? Скорее всего – нет. Во-первых, поддерживают письмо далеко не все – среди подписантов не видно сотрудников OpenAI, да и многие исследователи называют его «бредом». К тому же на кону большие деньги: ChatGPT стал самым быстрорастущим приложением за всю историю, набрав 100 млн пользователей за два месяца – почти в пять раз быстрее, чем TikTok. Любая компания, которая добровольно откажется от развития, потеряет миллиарды долларов - именно поэтому Google в спешке презентовал свой аналог ChatGPT, который называли даже "позором".

Во-вторых, вряд ли смогут остановить разработки и государства. Развитие ИИ - давно уже новая гонка вооружений между Китаем и США. Если любая из сторон решит единолично остановить своих исследователей, то обречет себя на поражение в необъявленной войне (лучше уж всесильный ИИ разработаем мы, чем эти тоталитарные безумцы – вполне себе существующий аргумент). Ну а поверить в координацию между Китаем и США почти невозможно – поэтому американцы вкладывают рекордные 50 млрд в развитие полупроводников, без которых ИИ не построишь, а китайцы запускают одну ИИ-стратегию за другой.

Поэтому большого эффекта от письма ждать не стоит.



tgoop.com/za_4_morya/120
Create:
Last Update:

Вчера многие говорили о том, что Маск подписал письмо с призывом остановить разработку всех ИИ-систем, более продвинутых, чем GPT-4.

Можно сослаться на эксцентричность Маска, но в списке подписантов много важных для ИТ-индустрии людей: Стив Возняк, Юваль Ной Харари, немало сотрудников ИИ-стартапов и еще больше профессоров – в том числе и тех, кто стоял у самых истоков современных нейронных сетей, вроде Йошуа Бенжио.

Возникает два вопроса:

Первый: почему умные люди становятся неолуддитами и пытаются остановить прогресс?

Второй: действительно ли развитие ИИ могут приостановить?

Начнем с первого. В самом письме цитируется несколько причин. Что, если машины заполнят наш мир пропагандой? А если роботы займут все рабочие места? И, наконец, уверены ли мы, что не потеряем контроль за нашей цивилизацией?      

Последний тезис может показаться радикальным, но именно он – причина, по которой многие оставили свою подпись под документом (хотя и не все – есть те, кто больше обеспокоен краткосрочными эффектами).  

Есть много аргументов за то, почему ИИ может уничтожить человечество, но сфокусируемся на одном, самом известном и элегантном. Он состоит из двух частей:

(1)  Допустим, нам удастся создать ИИ, равный по способностям человеческому мозгу. В отличие от человека, он не нуждается в отдыхе, не забывает то, что однажды выучил, и может получить доступ к колоссальным вычислительным ресурсам – а главное, может улучшать сам себя. Он умеет писать код, а значит, может создать ИИ+ - интеллект, хотя бы немного превосходящий человеческий, который, в свою очередь, создаст еще более производительную модель. Получается, что создание «человеческого» ИИ неизбежно приведет к появлению «сверхчеловеческого» (лучший анализ этого аргумента – в статье Чалмерса).

(2)  Если появится сверхчеловеческий интеллект, то нет никаких гарантий, что его цели будут соответствовать человеческим – это та самая AI Alignment Problem. В упрощенном виде - знаменитый «аргумент о скрепках». Допустим, человечество создало сверхчеловеческий разум, в мозг которого мы заложили главную цель – производить скрепки. Со временем этот ИИ поймет, что для максимизации числа скрепок желательно превратить в заводы по их производству всю поверхность Земли, а в идеале в скрепки должна превратиться вся материя во Вселенной – включая, конечно, и довольно бесполезных людей. Какую бы цель мы не заложили в искусственный разум, мы не понимаем, как она будет интерпретирована (за деталями - к Бострому).

Если вы впервые читаете эти аргументы, то они могут показаться вам фантасмагорическим бредом, место которому - в голливудских боевиках. Их разделяют даже не все подписанты. Но раз уж об этом всерьез спорят тысячи блестяще образованных людей, то нам точно стоит хотя бы задуматься.

Теперь ко второму вопросу - получится ли приостановить развитие? Скорее всего – нет. Во-первых, поддерживают письмо далеко не все – среди подписантов не видно сотрудников OpenAI, да и многие исследователи называют его «бредом». К тому же на кону большие деньги: ChatGPT стал самым быстрорастущим приложением за всю историю, набрав 100 млн пользователей за два месяца – почти в пять раз быстрее, чем TikTok. Любая компания, которая добровольно откажется от развития, потеряет миллиарды долларов - именно поэтому Google в спешке презентовал свой аналог ChatGPT, который называли даже "позором".

Во-вторых, вряд ли смогут остановить разработки и государства. Развитие ИИ - давно уже новая гонка вооружений между Китаем и США. Если любая из сторон решит единолично остановить своих исследователей, то обречет себя на поражение в необъявленной войне (лучше уж всесильный ИИ разработаем мы, чем эти тоталитарные безумцы – вполне себе существующий аргумент). Ну а поверить в координацию между Китаем и США почти невозможно – поэтому американцы вкладывают рекордные 50 млрд в развитие полупроводников, без которых ИИ не построишь, а китайцы запускают одну ИИ-стратегию за другой.

Поэтому большого эффекта от письма ждать не стоит.

BY За четыре моря


Share with your friend now:
tgoop.com/za_4_morya/120

View MORE
Open in Telegram


Telegram News

Date: |

End-to-end encryption is an important feature in messaging, as it's the first step in protecting users from surveillance. 4How to customize a Telegram channel? Unlimited number of subscribers per channel The creator of the channel becomes its administrator by default. If you need help managing your channel, you can add more administrators from your subscriber base. You can provide each admin with limited or full rights to manage the channel. For example, you can allow an administrator to publish and edit content while withholding the right to add new subscribers. Activate up to 20 bots
from us


Telegram За четыре моря
FROM American