tgoop.com/andrey_kiselnikov/1164
Last Update:
Прямые доказательства непосредственного приближения сингулярности
Сейчас весь мир с целой гаммой чувств от страха до благоговения разглядывает вот этот график. Этот график показывает эволюцию интеллекта больших языковых моделей от OpenAI за последние пять-шесть лет – начиная с выхода GPT-2. Интеллект измерялся по тесту «ARC-AGI», специально созданному скептиком Франсуа Шолле для того, чтобы анализировать, насколько интеллект искусственной системы приближается к AGI, т.е. к полноте человеческого интеллекта. График демонстрирует однозначно экспоненциальную природу, причем его внимательный анализ показывает, что стремительный «обвал» произошел только что, прямо на наших глазах, в 2024 году.
Есть определенные технические моменты, которые требуют осторожности в интерпретации этого графика, но они, с моей точки, не меняют стратегическую оценку ситуации: 1) авторы теста ARC разрабатывают новую версию теста под названием «ARC-AGI-2» (https://arcprize.org/blog/oai-o3-pub-breakthrough – рекомендую всем тщательно ознакомиться, это важный документ), которая будет гораздо сложнее и с которой, как они обещают, человек будет справляться легко (95%), а вот самый лучший ИИ типа o3 будет брать не более 30%. Даже если это сначала будет так, вероятно, дальнейший прогресс «разберется» и с этим тестом так же, как модели от OpenAI очень быстро, всего за несколько лет, «разобрались» с первой версией теста. Вообще, автор ARC Франсуа Шолле – известный скептик, я давно его отслеживаю, и он создавал ARС-AGI-1 (тогда просто «ARC-AGI») как «неприступную крепость» для ИИ, и вот теперь, когда, фактически, эта крепость стремительно пала, приходится отступать, маневрировать и говорить, что теперь такой крепостью будет только новый усложненный ARC-AGI-2. Посмотрим на этот новый тест, но экстраполяция всех предыдущих тенденций говорит, что и он за пару лет вряд ли устоит и будет сметен экспоненциальной кривой; 2) полученный на ARC-AGI моделью o3-high феноменальный результат в 88% был очень дорогостоящим в вычислительном и финансовом смысле, впрочем, весь предшествующий опыт говорит, что со временем все вычисления сильно дешевеют; 3) у OpenAI возникли проблемы с GPT-5 (проект «Орион»), она лучше предшествующего поколения, но недостаточно, работы по ее «допиливанию» активно продолжаются; 4) обычные данные кончились, непонятно, можно ли дальше будет расти так же быстро на синтетических данных. Возможно, GPT-5 и o3 будут нужны прежде всего для того, что сгенерить огромное количество синтетических данных (на порядки больше, чем есть в реальном мире), и на следующем технологическом такте обученная на этом монблане синтетических данных GPT-6 / о4 и станет настоящим AGI (что запустит непосредственный обратный отсчет до ASI и сингулярности). Все еще остается неясным, насколько эти синтетические данные будут хуже настоящих.
Несмотря на все эти замечания, с учетом революционности происшедшего, я таким образом сдвигаю свой личный прогноз достижения AGI, а потом ASI и сингулярности (у футурологов с сайта «lesswrong» это называется «short timeline»): AGI – 2027 год с вероятностью 50%, ASI и сингулярность – 2032 год с вероятностью 50% (ранее я ставил на 2035). Если мой прогноз верен, то, скорее всего, миру в его прежнем виде остается всего несколько лет, причем эти годы будут очень турбулентными, т.к. непрерывно будет усиливаться идущий уже несколько лет общечеловеческий «предсингулярный хаос».
В такой ситуации очень короткого таймлайна психология, в т.ч. психофизиология, уже вряд ли как-то смогут повлиять на исход сингулярности, и остается только надеяться на ее позитивный вариант, который Тейяр де Шарден визионерски предвидел в виде «точки Омега», и стараться максимально полноценно прожить оставшиеся относительно спокойные годы (спокойные относительно масштаба грядущих событий).
BY Новости психофизиологии
Share with your friend now:
tgoop.com/andrey_kiselnikov/1164