AKADEMIA_SPACE Telegram 1692
Работы и роботы, отступление: технологическая сингулярность

С возможным появлением общего искусственного интелекта напрямую связана одна из популярных футурологических концепций: технологическая сингулярность, гипотетическое состояние (пост)человеческого общества в котором технологическая реальность будет меняться с невообразимой для человека скоростью.

Здесь однако надо оговориться что апологеты концепции как правило выводят её не из появления AGI как такового, а из предполагаемого ими экспоненциального характера развития технологической цивилизации.

То есть с точки зрения теории сингулярности экспоненциальный закон технологического развития действует безотносительно появления AGI, и последний хотя и должен возникнуть на определённом этапе, сам является лишь следствием этого закона.

На практике конечно уже в этой точке начинаются проблемы. В частности главный популяризатор концепции Рей Курцвейл в книге 2005г Сингулярность близка утверждает что прогресс предыдущих двадцати лет по состоянию на 2000г будет достигнут за 14 лет (к 2014г), а затем за следующие 7 (к 2021г). Как видим однако ничего подобного не произошло: единственным существенным технологическим прорывом последнего десятилетия стали как раз языковые модели, никаких других значимых технологических новшеств мы за это время не получили.

В этом смысле более адекватной видится как раз схема технологических укладов в рамках которой экспоненциальный рост проявляется только в периоды активного внедрения новой ключевой технологии, но длится недолго что мы и наблюдаем сейчас: период взрывного технологического роста, последовавший за появлением персональных компьютеров, сменился длительной стагнацией и может снова перейти в фазу экспоненциального роста только в случае появления новой технологии подобного масштаба, которой как раз может стать ИИ. (Кто сейчас сказал нанотехнологии? Нет, в этот раз не Глазьев: как это ни смешно но в той же книге Курцвейла они идут через запятую с ИИ в списке прорывных технологий которые должны были радикально изменить нашу жизнь уже к 2020-м годам.)

Итак концепция сингулярности очевидно не работает без AGI. Однако может ли она воплотиться в жизнь в случае его появления? Здесь надо ответить что в целом исключать этого нельзя, т.к. появление AGI и особенно ASI гипотетически повышает наши вычислительные способности на порядки.

И тем не менее нельзя забывать что подобное уже происходило в прошлом – как раз в период массового внедрения микроэлектроники, однако предел возможностей этого технологического этапа был достигнут достаточно быстро. То же самое может в итоге произойти и в случае возникновения AGI или даже ASI: разовый технологический скачок может затем смениться длительной стагнацией если например дальнейшее развитие AGI/ASI с какого-то момента будет невозможно из-за фундаментальных ограничений на уровне законов физики.

Таким образом можно осторожно рассматривать технологическую сингулярность как одну из рабочих футурологических гипотез, но с двумя оговорками: во-первых её наступление невозможно без появления AGI или скорее ASI, во-вторых даже ASI сам по себе ничего ещё не гарантирует, то есть это условие необходимое но не достаточное.



tgoop.com/akademia_space/1692
Create:
Last Update:

Работы и роботы, отступление: технологическая сингулярность

С возможным появлением общего искусственного интелекта напрямую связана одна из популярных футурологических концепций: технологическая сингулярность, гипотетическое состояние (пост)человеческого общества в котором технологическая реальность будет меняться с невообразимой для человека скоростью.

Здесь однако надо оговориться что апологеты концепции как правило выводят её не из появления AGI как такового, а из предполагаемого ими экспоненциального характера развития технологической цивилизации.

То есть с точки зрения теории сингулярности экспоненциальный закон технологического развития действует безотносительно появления AGI, и последний хотя и должен возникнуть на определённом этапе, сам является лишь следствием этого закона.

На практике конечно уже в этой точке начинаются проблемы. В частности главный популяризатор концепции Рей Курцвейл в книге 2005г Сингулярность близка утверждает что прогресс предыдущих двадцати лет по состоянию на 2000г будет достигнут за 14 лет (к 2014г), а затем за следующие 7 (к 2021г). Как видим однако ничего подобного не произошло: единственным существенным технологическим прорывом последнего десятилетия стали как раз языковые модели, никаких других значимых технологических новшеств мы за это время не получили.

В этом смысле более адекватной видится как раз схема технологических укладов в рамках которой экспоненциальный рост проявляется только в периоды активного внедрения новой ключевой технологии, но длится недолго что мы и наблюдаем сейчас: период взрывного технологического роста, последовавший за появлением персональных компьютеров, сменился длительной стагнацией и может снова перейти в фазу экспоненциального роста только в случае появления новой технологии подобного масштаба, которой как раз может стать ИИ. (Кто сейчас сказал нанотехнологии? Нет, в этот раз не Глазьев: как это ни смешно но в той же книге Курцвейла они идут через запятую с ИИ в списке прорывных технологий которые должны были радикально изменить нашу жизнь уже к 2020-м годам.)

Итак концепция сингулярности очевидно не работает без AGI. Однако может ли она воплотиться в жизнь в случае его появления? Здесь надо ответить что в целом исключать этого нельзя, т.к. появление AGI и особенно ASI гипотетически повышает наши вычислительные способности на порядки.

И тем не менее нельзя забывать что подобное уже происходило в прошлом – как раз в период массового внедрения микроэлектроники, однако предел возможностей этого технологического этапа был достигнут достаточно быстро. То же самое может в итоге произойти и в случае возникновения AGI или даже ASI: разовый технологический скачок может затем смениться длительной стагнацией если например дальнейшее развитие AGI/ASI с какого-то момента будет невозможно из-за фундаментальных ограничений на уровне законов физики.

Таким образом можно осторожно рассматривать технологическую сингулярность как одну из рабочих футурологических гипотез, но с двумя оговорками: во-первых её наступление невозможно без появления AGI или скорее ASI, во-вторых даже ASI сам по себе ничего ещё не гарантирует, то есть это условие необходимое но не достаточное.

BY Ακαδημία


Share with your friend now:
tgoop.com/akademia_space/1692

View MORE
Open in Telegram


Telegram News

Date: |

It’s yet another bloodbath on Satoshi Street. As of press time, Bitcoin (BTC) and the broader cryptocurrency market have corrected another 10 percent amid a massive sell-off. Ethereum (EHT) is down a staggering 15 percent moving close to $1,000, down more than 42 percent on the weekly chart. Over 33,000 people sent out over 1,000 doxxing messages in the group. Although the administrators tried to delete all of the messages, the posting speed was far too much for them to keep up. Step-by-step tutorial on desktop: Among the requests, the Brazilian electoral Court wanted to know if they could obtain data on the origins of malicious content posted on the platform. According to the TSE, this would enable the authorities to track false content and identify the user responsible for publishing it in the first place. Co-founder of NFT renting protocol Rentable World emiliano.eth shared the group Tuesday morning on Twitter, calling out the "degenerate" community, or crypto obsessives that engage in high-risk trading.
from us


Telegram Ακαδημία
FROM American