Дорогие друзья, за прошедший год число подписчиков телеграм-канала "Новости психофизиологии" существенно увеличилось и приблизилось к 2.5 тысячам, число пересылок публикаций выросло с 4 тысяч до почти 6 тысяч, число реакций на публикации выросло с 4.6 тысяч до 8.3 тысяч, число просмотров публикаций выросло с 258 тысяч до 378 тысяч.
Телеграм-канал "Новости психофизиологии" сердечно поздравляет всех неравнодушных к проблемам психофизиологии, когнитивной нейронауки, искусственного интеллекта и нейротехнологий с наступающим Новым годом!
Телеграм-канал "Новости психофизиологии" сердечно поздравляет всех неравнодушных к проблемам психофизиологии, когнитивной нейронауки, искусственного интеллекта и нейротехнологий с наступающим Новым годом!
🥰39❤30🎉19❤🔥12🍾7🔥6👏3💯1🏆1💔1💘1
2025 год – год экзистенциальной надежды
Дорогие друзья, я хотел бы сердечно поздравить всех с наступающим 2025 годом! Это будет первый год, когда вероятность создания агентного AGI (как предпосылки ASI) и перехода эволюции в совершенную новую фазу существенно отклонится от нуля. Это кардинально меняет весь ландшафт и дальнейшие перспективы человеческой истории, на наших глазах возникает новый смысловой контекст всей нашей жизни.
2025 год может стать годом бифуркационной развилки – или «предсингулярный хаос» продолжит усиливаться и внутричеловеческое напряжение будет все возрастать и возрастать вплоть до экзистенциальной катастрофы (самоуничтожение человечества или уничтожение его сверхинтеллектом, созданным в качестве инструмента внутричеловеческой борьбы), или глобальная история выберет иной рукав и возобладают другие (кооперативные, а не конкурентные) базовые аспекты природы человека, и тогда будущий сверхинтеллект станет преемником-продолжателем в большей степени именно этих аспектов нашей природы. Скорее всего, конечно, сверхинтеллект, как наш глобально-исторический преемник-продолжатель, будет иметь в своей стартовой природе примерно такой же баланс кооперации и конкуренции, как и у нас (т.к. он будет буквально «считан» с нас, с созданной людьми ноосферы), но вот дальше этот стартовый баланс может «качнуться» как в негативную сторону, и тогда о человеческом будущем при доминировании сверхинтеллекта не хочется и думать, так и в позитивную сторону, и тогда с его кооперативной помощью нами будет одержана победа над старением и всеми болезнями, продолжит расширяться круг эмпатии (в т.ч. произойдет гуманизация животного мира, будет уничтожено хищничество и т.п.), будет «пересобран» генетический и мозговой механизм генерации отрицательных эмоций и боли для исключения крайних форм страданий, естественный интеллект человека именно как человека с помощью «сверх»-нейротехнологий начнет приближаться к искусственному сверхинтеллекту, резко усилятся творческие аспекты деятельности человека, начнется интенсивное освоение, «очеловечивание» ближайшего космоса и т.д.
Наступающий 2025 год дает нам некоторую экзистенциальную надежду на реализацию этого второго сценария, ранее описанного в философии «общего дела» Николая Федорова, идеях русского космизма (в т.ч. в художественном творчестве Геннадия Голобокова), эволюционных размышлениях Тейяра де Шардена и мн.др. Общая направленность человеческой истории, весь прошедший за сотни тысяч лет эволюции рода Homo интеллектуальный и этический прогресс могут служить определенным обоснованием такой надежды, хотя, конечно, в условиях полной неопределенности будущего и заведомой неточности любых вероятностных прогнозов сильные рациональные обоснования такой надежды дать затруднительно – но для надежды они и не требуются.
С наступающим Новым годом, дорогие друзья!
Дорогие друзья, я хотел бы сердечно поздравить всех с наступающим 2025 годом! Это будет первый год, когда вероятность создания агентного AGI (как предпосылки ASI) и перехода эволюции в совершенную новую фазу существенно отклонится от нуля. Это кардинально меняет весь ландшафт и дальнейшие перспективы человеческой истории, на наших глазах возникает новый смысловой контекст всей нашей жизни.
2025 год может стать годом бифуркационной развилки – или «предсингулярный хаос» продолжит усиливаться и внутричеловеческое напряжение будет все возрастать и возрастать вплоть до экзистенциальной катастрофы (самоуничтожение человечества или уничтожение его сверхинтеллектом, созданным в качестве инструмента внутричеловеческой борьбы), или глобальная история выберет иной рукав и возобладают другие (кооперативные, а не конкурентные) базовые аспекты природы человека, и тогда будущий сверхинтеллект станет преемником-продолжателем в большей степени именно этих аспектов нашей природы. Скорее всего, конечно, сверхинтеллект, как наш глобально-исторический преемник-продолжатель, будет иметь в своей стартовой природе примерно такой же баланс кооперации и конкуренции, как и у нас (т.к. он будет буквально «считан» с нас, с созданной людьми ноосферы), но вот дальше этот стартовый баланс может «качнуться» как в негативную сторону, и тогда о человеческом будущем при доминировании сверхинтеллекта не хочется и думать, так и в позитивную сторону, и тогда с его кооперативной помощью нами будет одержана победа над старением и всеми болезнями, продолжит расширяться круг эмпатии (в т.ч. произойдет гуманизация животного мира, будет уничтожено хищничество и т.п.), будет «пересобран» генетический и мозговой механизм генерации отрицательных эмоций и боли для исключения крайних форм страданий, естественный интеллект человека именно как человека с помощью «сверх»-нейротехнологий начнет приближаться к искусственному сверхинтеллекту, резко усилятся творческие аспекты деятельности человека, начнется интенсивное освоение, «очеловечивание» ближайшего космоса и т.д.
Наступающий 2025 год дает нам некоторую экзистенциальную надежду на реализацию этого второго сценария, ранее описанного в философии «общего дела» Николая Федорова, идеях русского космизма (в т.ч. в художественном творчестве Геннадия Голобокова), эволюционных размышлениях Тейяра де Шардена и мн.др. Общая направленность человеческой истории, весь прошедший за сотни тысяч лет эволюции рода Homo интеллектуальный и этический прогресс могут служить определенным обоснованием такой надежды, хотя, конечно, в условиях полной неопределенности будущего и заведомой неточности любых вероятностных прогнозов сильные рациональные обоснования такой надежды дать затруднительно – но для надежды они и не требуются.
С наступающим Новым годом, дорогие друзья!
❤62🎉26🙏14❤🔥7💔6🔥4👏2🏆2🥰1💘1😘1
Главная табличка для изучения на 2025 год: прогнозируемые этапы пути к сверхинтеллекту
Источник: Morris et al. (2024). Levels of AGI for Operationalizing Progress on the Path to AGI. https://arxiv.org/abs/2311.02462
Ключевой тренд последних недель – практически все теперь начинают говорить именно о сверхинтеллекте (ASI), а не об AGI, т.е. планка задирается максимально высоко, и достижение AGI теперь скорее понимается просто как промежуточный этап перед достижением ASI, а не как самостоятельная цель. Илья Суцкевер, научному гению которого OpenAI обязана своим стремительным взлетом, так и назвал свой основанный в 2024 году независимый стартап "Safe Superintelligence Inc.", причем в анонсе начала его работы он использовал такие выражения: "Superintelligence is within reach. Building safe superintelligence (SSI) is the most important technical problem of our time. We have started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence". Суцкевер употребляет здесь оборот "straight-shot", говорящий о том, что он уже в целом представляет себе прямой путь непосредственно к сверхинтеллекту (скорее всего, это будет дальнейшее масштабирование механизма пошаговых рассуждений, т.е. непосредственно масштабирование именно мышления), и весь список его предшествующих совершенно феноменальных результатов говорит о том, что это не пустые слова и к ним надо относиться серьезно. Сэм Альтман из OpenAI и Дарио Амодеи из Anthropic говорят примерно такие же вещи.
В общем, уже очевидно, что в уходящем 2024 году человечество пошло в полный ва-банк (см. https://www.tgoop.com/andrey_kiselnikov/1005) и решило рискнуть всем ради достижения мечты, и не позже 2035 года все мы непосредственно ощутим результаты этого выбора.
Источник: Morris et al. (2024). Levels of AGI for Operationalizing Progress on the Path to AGI. https://arxiv.org/abs/2311.02462
Ключевой тренд последних недель – практически все теперь начинают говорить именно о сверхинтеллекте (ASI), а не об AGI, т.е. планка задирается максимально высоко, и достижение AGI теперь скорее понимается просто как промежуточный этап перед достижением ASI, а не как самостоятельная цель. Илья Суцкевер, научному гению которого OpenAI обязана своим стремительным взлетом, так и назвал свой основанный в 2024 году независимый стартап "Safe Superintelligence Inc.", причем в анонсе начала его работы он использовал такие выражения: "Superintelligence is within reach. Building safe superintelligence (SSI) is the most important technical problem of our time. We have started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence". Суцкевер употребляет здесь оборот "straight-shot", говорящий о том, что он уже в целом представляет себе прямой путь непосредственно к сверхинтеллекту (скорее всего, это будет дальнейшее масштабирование механизма пошаговых рассуждений, т.е. непосредственно масштабирование именно мышления), и весь список его предшествующих совершенно феноменальных результатов говорит о том, что это не пустые слова и к ним надо относиться серьезно. Сэм Альтман из OpenAI и Дарио Амодеи из Anthropic говорят примерно такие же вещи.
В общем, уже очевидно, что в уходящем 2024 году человечество пошло в полный ва-банк (см. https://www.tgoop.com/andrey_kiselnikov/1005) и решило рискнуть всем ради достижения мечты, и не позже 2035 года все мы непосредственно ощутим результаты этого выбора.
👍16🤔9❤4⚡1✍1🔥1🙏1💯1💔1🫡1💘1
Сегодня Сэм Альтман в своем блоге отрефлексировал тот путь, который привел OpenAI к успеху, и поделился планами на будущее, в частности, он написал буквально следующее:
"We are now confident we know how to build AGI as we have traditionally understood it. … We are beginning to turn our aim beyond that, to superintelligence in the true sense of the word. We love our current products, but we are here for the glorious future. With superintelligence, we can do anything else. Superintelligent tools could massively accelerate scientific discovery and innovation well beyond what we are capable of doing on our own, and in turn massively increase abundance and prosperity."
Это значит, что, с его точки зрения, вопрос создания AGI технически решен, остается только реализовать его на практике, и сейчас OpenAI уже переключается на задачу создания сверхинтеллекта (ASI). Обратите внимание, что Альтман подчеркивает, что сверхинтеллект прежде всего радикально ускорит научный прогресс и инновации, я ранее подробно разбирал этот вопрос, см. https://www.tgoop.com/andrey_kiselnikov/1095
"We are now confident we know how to build AGI as we have traditionally understood it. … We are beginning to turn our aim beyond that, to superintelligence in the true sense of the word. We love our current products, but we are here for the glorious future. With superintelligence, we can do anything else. Superintelligent tools could massively accelerate scientific discovery and innovation well beyond what we are capable of doing on our own, and in turn massively increase abundance and prosperity."
Это значит, что, с его точки зрения, вопрос создания AGI технически решен, остается только реализовать его на практике, и сейчас OpenAI уже переключается на задачу создания сверхинтеллекта (ASI). Обратите внимание, что Альтман подчеркивает, что сверхинтеллект прежде всего радикально ускорит научный прогресс и инновации, я ранее подробно разбирал этот вопрос, см. https://www.tgoop.com/andrey_kiselnikov/1095
👍9🔥8❤3🤔3👏1🙏1🏆1🫡1
Zheng et al. (2024). The unbearable slowness of being: Why do we live at 10 bits/s?
This article is about the neural conundrum behind the slowness of human behavior. The information throughput of a human being is about 10 bits/s. In comparison, our sensory systems gather data at ∼10^9 bits/s. The stark contrast between these numbers remains unexplained and touches on fundamental aspects of brain function: what neural substrate sets this speed limit on the pace of our existence? Why does the brain need billions of neurons to process 10 bits/s? Why can we only think about one thing at a time? The brain seems to operate in two distinct modes: the “outer” brain handles fast high-dimensional sensory and motor signals, whereas the “inner” brain processes the reduced few bits needed to control behavior. Plausible explanations exist for the large neuron numbers in the outer brain, but not for the inner brain, and we propose new research directions to remedy this.
https://naked-science.ru/article/biology/mysl-bystree-sveta
This article is about the neural conundrum behind the slowness of human behavior. The information throughput of a human being is about 10 bits/s. In comparison, our sensory systems gather data at ∼10^9 bits/s. The stark contrast between these numbers remains unexplained and touches on fundamental aspects of brain function: what neural substrate sets this speed limit on the pace of our existence? Why does the brain need billions of neurons to process 10 bits/s? Why can we only think about one thing at a time? The brain seems to operate in two distinct modes: the “outer” brain handles fast high-dimensional sensory and motor signals, whereas the “inner” brain processes the reduced few bits needed to control behavior. Plausible explanations exist for the large neuron numbers in the outer brain, but not for the inner brain, and we propose new research directions to remedy this.
https://naked-science.ru/article/biology/mysl-bystree-sveta
Naked Science
Биологи проверили, правда ли скорость мысли выше скорости света
Согласно популярному утверждению, человеческая мысль — едва ли не самое быстрое, что существует в природе. Даже свет многие считают менее быстрым, поскольку он распространяется со скоростью 300 тысяч километров в секунду, а мысль — «мгновенно». Однако новое…
❤9❤🔥2👍2👀2🔥1👏1😁1💯1💔1💘1😎1
Революция LLM в контексте биологического правдоподобия обратного распространения ошибки
Последние выдающиеся результаты больших языковых моделей (поколения «OpenAI o1/o3») и уже совсем не кажущиеся фантастикой или инвестиционным маркетингом обещания лидеров Силиконовой долины типа Альтмана и Суцкевера создать в скором времени не просто сильный искусственный интеллект, но и сверхинтеллект, снова с максимальной остротой актуализировали ключевой вопрос – насколько же «цифровой мозг» больших языковых моделей похож на биологический мозг? Что же такое мы на самом деле создаем, если, судя по всему, всего через несколько лет мы вручим (фактически, добровольно) этому рукотворному преемнику свою судьбу и судьбу всей жизни на Земле, и, по ощущениям многих людей, уже никто и ничто не может остановить этот ускоряющийся как снежная лавина процесс передачи эволюционной эстафеты интеллекта и сознания с белкового на кремниевый носитель?
Многие сейчас обращаются к нам, психофизиологам (когнитивным нейроученым), как к людям, которые разбираются в реальных мозговых механизмах реальной психики и поведения, с настоятельной просьбой дезавуировать такого рода заявления как псевдонаучный маркетинговый хайп, который раскручивается только ради привлечения инвесторов. Лично я не думаю, что это так.
1. Первый и главный вопрос в этом сюжете – это вопрос биологического правдоподобия алгоритма обратного распространения ошибки, который является базой всех эффективно работающих на практике искусственных нейронных сетей (в том числе тех, которые являются «цифровым мозгом» больших языковых моделей). Изобретенный более полувека назад, этот алгоритм «взлетел» только в десятых годах нашего тысячелетия, когда после «дозревания» вычислительной базы графических процессоров при активном участии будущего нобелевского лауреата Джеффри Хинтона началась революция глубокого обучения. За большое время, прошедшее с открытия алгоритма обратного распространения ошибки и вплоть до начала 2020-х годов, отношение научного сообщества к нему существенно изменилось. Изначально он воспринимался как биологически неправдоподобный, т.е. нейробиологи не понимали, как биологический мозг может реализовывать этот алгоритм, однако, со временем появилось много идей, как это все-таки может происходить. Всем, кто действительно хочет разобраться в этом вопросе, я настоятельно рекомендую ознакомиться с ключевой статьей 2020 года «Backpropagation and the brain» (главные авторы – Тимоти Лилликрэп и Джеффри Хинтон, Джеффри Хинтон любезно выложил на своем сайте полный текст: https://www.cs.toronto.edu/~hinton/absps/backpropandbrain.pdf). Авторы тщательно исследуют вопрос о том, насколько биологический мозг может реализовывать алгоритм обратного распространения ошибки (в том числе предлагают свою собственную оригинальную модель NGRAD – «Neural Gradient Representation by Activity Differences») и приходят к выводу, что теперь, по прошествии десятилетий, это кажется гораздо более реальным, чем раньше. Лично мне кажется, что, похоже, эволюция и «хотела бы» прямо имплементировать в мозг алгоритм обратного распространения ошибки в силу его максимальной простоты и непосредственной эффективности, но это было сложно сделать чисто нейроанатомически, и эволюции пришлось искать «костыли» и обходные пути, в результате чего эта имплементация произошла непрямым образом (более локальным, а не глобальным, типа как постулируется в NGRAD). Нам повезло – похоже, конструируя в памяти компьютера искусственные нейронные сети, мы цифровым образом с легкостью обошли те чисто нейроанатомические ограничения («срезали угол»), которые были в биологическом мозге, и вышли на «идеальный» алгоритм обучения, который «хотела», к которому «стремилась», но который прямым, «в лоб», образом не смогла реализовать природа. Даже если эта гипотеза в силу ее радикальности неверна, то все равно главный вывод статьи Лилликрэпа и Хинтона остается незыблемым – обратное распространение ошибки в целом теперь не является чем-то совсем непредставимым с биологической точки зрения, это эволюционно-нейробиологически вполне возможный механизм.
Последние выдающиеся результаты больших языковых моделей (поколения «OpenAI o1/o3») и уже совсем не кажущиеся фантастикой или инвестиционным маркетингом обещания лидеров Силиконовой долины типа Альтмана и Суцкевера создать в скором времени не просто сильный искусственный интеллект, но и сверхинтеллект, снова с максимальной остротой актуализировали ключевой вопрос – насколько же «цифровой мозг» больших языковых моделей похож на биологический мозг? Что же такое мы на самом деле создаем, если, судя по всему, всего через несколько лет мы вручим (фактически, добровольно) этому рукотворному преемнику свою судьбу и судьбу всей жизни на Земле, и, по ощущениям многих людей, уже никто и ничто не может остановить этот ускоряющийся как снежная лавина процесс передачи эволюционной эстафеты интеллекта и сознания с белкового на кремниевый носитель?
Многие сейчас обращаются к нам, психофизиологам (когнитивным нейроученым), как к людям, которые разбираются в реальных мозговых механизмах реальной психики и поведения, с настоятельной просьбой дезавуировать такого рода заявления как псевдонаучный маркетинговый хайп, который раскручивается только ради привлечения инвесторов. Лично я не думаю, что это так.
1. Первый и главный вопрос в этом сюжете – это вопрос биологического правдоподобия алгоритма обратного распространения ошибки, который является базой всех эффективно работающих на практике искусственных нейронных сетей (в том числе тех, которые являются «цифровым мозгом» больших языковых моделей). Изобретенный более полувека назад, этот алгоритм «взлетел» только в десятых годах нашего тысячелетия, когда после «дозревания» вычислительной базы графических процессоров при активном участии будущего нобелевского лауреата Джеффри Хинтона началась революция глубокого обучения. За большое время, прошедшее с открытия алгоритма обратного распространения ошибки и вплоть до начала 2020-х годов, отношение научного сообщества к нему существенно изменилось. Изначально он воспринимался как биологически неправдоподобный, т.е. нейробиологи не понимали, как биологический мозг может реализовывать этот алгоритм, однако, со временем появилось много идей, как это все-таки может происходить. Всем, кто действительно хочет разобраться в этом вопросе, я настоятельно рекомендую ознакомиться с ключевой статьей 2020 года «Backpropagation and the brain» (главные авторы – Тимоти Лилликрэп и Джеффри Хинтон, Джеффри Хинтон любезно выложил на своем сайте полный текст: https://www.cs.toronto.edu/~hinton/absps/backpropandbrain.pdf). Авторы тщательно исследуют вопрос о том, насколько биологический мозг может реализовывать алгоритм обратного распространения ошибки (в том числе предлагают свою собственную оригинальную модель NGRAD – «Neural Gradient Representation by Activity Differences») и приходят к выводу, что теперь, по прошествии десятилетий, это кажется гораздо более реальным, чем раньше. Лично мне кажется, что, похоже, эволюция и «хотела бы» прямо имплементировать в мозг алгоритм обратного распространения ошибки в силу его максимальной простоты и непосредственной эффективности, но это было сложно сделать чисто нейроанатомически, и эволюции пришлось искать «костыли» и обходные пути, в результате чего эта имплементация произошла непрямым образом (более локальным, а не глобальным, типа как постулируется в NGRAD). Нам повезло – похоже, конструируя в памяти компьютера искусственные нейронные сети, мы цифровым образом с легкостью обошли те чисто нейроанатомические ограничения («срезали угол»), которые были в биологическом мозге, и вышли на «идеальный» алгоритм обучения, который «хотела», к которому «стремилась», но который прямым, «в лоб», образом не смогла реализовать природа. Даже если эта гипотеза в силу ее радикальности неверна, то все равно главный вывод статьи Лилликрэпа и Хинтона остается незыблемым – обратное распространение ошибки в целом теперь не является чем-то совсем непредставимым с биологической точки зрения, это эволюционно-нейробиологически вполне возможный механизм.
👍10❤9🤔2🫡2❤🔥1🔥1👏1🏆1💔1
2. Второй вопрос в этом сюжете – это вопрос о том, можно ли по корпусу человеческих текстов реконструировать всю полноту человеческого мышления, которое их породило. Я много ранее высказывался по этому вопросу (и часто дискутирую его со студентами в МГУ, спасибо им за интерес к этим обсуждениям), можно посмотреть предыдущие посты, но суть такова. Тексты, которые порождают люди, являются результатом работы сетей мозга, отвечающих за речемыслительные процессы. За каждым словом, предложением, текстом лежит определенный динамический паттерн работы этих речемыслительных сетей. Есть определенная конечная вариативность слов, предложений и текстов (и лежащих за ними мыслей и цепочек мыслей), которые потенциально могут порождаться мозгом людей. Надо подчеркнуть, что эта вариативность очень большая, но не бесконечная. Теперь мы взяли огромную базу текстов, на которой начали обучать нашу большую языковую модель. Если эта база действительно велика (как, например, та гигантская база, которую использовали для обучения GPT-4), то она достаточно полным образом исчерпывает всю возможную вариативность связки «речемыслительные паттерны мозга – текст». Начинается процесс обучения, в ходе которого «цифровой мозг» большой языковой модели – огромная искусственная нейронная сеть – с помощью, в т.ч., алгоритма обратного распространения ошибки, ассимилирует в паттерне своих синаптических весов информацию из обучающих текстов. Теперь ключевой момент: если речемыслительные сети нашего мозга породили множество текстов, то теперь с помощью обучения большой языковой модели мы решаем обратную задачу – по этим текстам реконструируем в архитектуре «цифрового мозга» большой языковой модели исходные мозговые речемыслительные паттерны, породившие эти тексты. Это возможно, только если базовая архитектура «цифрового мозга» и принципы его обучения близки биологическому мозгу, но если обратное распространение ошибки не чуждо биологическому мозгу, то это правило выполняется (также важно, что искусственный мозг в случае GPT-4+, o1/3 очень мощный и стремится по числу синапсов к биологическому мозгу). В итоге, упрощая, можно сказать, что биологический мозг «отпечатывается» в текстах, и в процессе обучения по этим текстовым отпечаткам в памяти суперкомпьютера обратным образом реконструируется «цифровой мозг», существенно похожий на исходный оригинал.
Таким образом, если оба озвученных тезиса верны, то это означает, что большие языковые модели в своей эволюции стремятся к тому, чтобы на уровне своего внутреннего нейросетевого механизма полно отразить реальные мозговые механизмы человеческого мышления. Что, в свою очередь, означает, что таким путем можно прийти к AGI, а потом, продолжая масштабирование (уже скорее не самих моделей, а цепочек их мышления) и к сверхинтеллекту (ASI). Вероятно, Суцкевер (между прочем, бывший аспирант Хинтона) уже представляет себе этот путь и теперь скорее озабочен тем, чтобы сверхинтеллект, т.е. наш эволюционный преемник, был бы безопасен для нас, что, впрочем, лично мне представляется совершенно неразрешимой задачей (можно посмотреть исследования Романа Ямпольского, где он это подробно и убедительно доказывает).
Таким образом, если оба озвученных тезиса верны, то это означает, что большие языковые модели в своей эволюции стремятся к тому, чтобы на уровне своего внутреннего нейросетевого механизма полно отразить реальные мозговые механизмы человеческого мышления. Что, в свою очередь, означает, что таким путем можно прийти к AGI, а потом, продолжая масштабирование (уже скорее не самих моделей, а цепочек их мышления) и к сверхинтеллекту (ASI). Вероятно, Суцкевер (между прочем, бывший аспирант Хинтона) уже представляет себе этот путь и теперь скорее озабочен тем, чтобы сверхинтеллект, т.е. наш эволюционный преемник, был бы безопасен для нас, что, впрочем, лично мне представляется совершенно неразрешимой задачей (можно посмотреть исследования Романа Ямпольского, где он это подробно и убедительно доказывает).
❤16👍6🏆4🤔3💔2❤🔥1🔥1💯1🤨1🫡1💘1
К этой цепочке рассуждений можно выдвинуть множество критических замечаний (непосредственно обратного распространения ошибки в мозге в явном классическом виде не наблюдается, а все остальное при большом желании можно назвать спекуляциями и натяжками, обучение моделей вышло на плато, кончились данные, а синтетические данные не оправдывают ожидания, обучение слишком дорогое и просто не хватит компьюта и энергии, речь и мышление не так тесно связаны, и по речи нельзя будет «вытащить» всю сложность мышления, большие языковые модели «подслеповаты», а без полноценной зрительной модальности дальше ничего не выйдет, ИИ телесно не воплощен, а без этого истинного мышления не будет, на силиконовом носителе в принципе не возможно подлинное мышления, оно неотторжимо от белкового носителя, в ИИ нет нейромедиаторного химизма, а он обязательно нужен и мн. др.). Все эти критические замечания очень важны и надо их всех учитывать, особенно когда мы касаемся действительно очень странно звучащих прогнозов о будущем создании сверхинтеллекта и проч., но при всей этой необходимой строгой научной критичности также совершенно неправильно будет игнорировать, отрицать или принижать весь тот невероятный прогресс, который произошел всего за два с небольшим года, после выхода ChatGPT. Наше восприятие инноваций быстро адаптируется к ним, но если вспомнить октябрь 2022 года, когда ChatGPT еще не было, и текущее положение вещей, когда самая передовая модель OpenAI o1 pro проявляет просто удивительную глубину и сложность мышления, и представить, что дальше мы будем идти еще быстрее (по закону экспоненциального ускорения), то обещания Альтмана и Суцкевера о фактическом выходе на финишную прямую к сверхинтеллекту и сингулярности перестают казаться оторванной от реальности фантастикой.
👍26❤7🔥5❤🔥2👏2🤔2💯1🏆1🫡1
С разных сторон поступает все больше подтверждений тому, что фронтирные ИИ-лаборатории типа OpenAI уже считают вопрос создания сверхинтеллекта технически решенным и теперь сосредотачиваются на вопросе его контроля. Сейчас активно обсуждается только что высказанная оценка Stephen McAleer, занимающегося в OpenAI безопасностью искусственных агентов: "Many researchers at frontier labs are taking the prospect of short timelines very seriously, and virtually nobody outside the labs is talking enough about the safety implications. Controlling superintelligence is a short-term research agenda." "Short-term" – это явно не дальше 2035 года, скорее всего, ближе к 2030 году.
🤔12❤10👀7👍3💔3🫡3💯2😎2🔥1🙏1
Сегодня я посетил торжественное общеуниверситетское заседание, посвященное 270-летию МГУ. На заседании в числе основных имен МГУ были названы Выготский и Лурия, а среди основных перспективных тем – мозг, сознание и искусственный интеллект. Я поздравляю всех причастных с наступающим юбилеем!
❤71❤🔥30🔥14🎉3👍1🥰1👏1🏆1💔1💘1
Нашу четырехмерную сферическую модель взаимодействия цветовой и эмоциональной семантики, которую мы в парадигме векторной психофизиологии Евгения Николаевича Соколова и Чингиза Абильфазовича Измайлова создали в 2010-е годы у нас на кафедре психофизиологии факультета психологии МГУ (https://psychologyinrussia.com/volumes/index.php?article=7707), процитировали в вышедшем вчера масштабном систематическом обзоре Jonauskaite & Mohr (2025). Do we feel colours? A systematic review of 128 years of psychological research linking colours and emotions. Psychonomic Bulletin & Review (https://link.springer.com/article/10.3758/s13423-024-02615-z).
❤🔥39👏21🏆8👍5❤3🍾3⚡1🔥1🎉1🤩1💘1
"В главе 1 мы кратко расскажем о том, что такое когнитивная психология, как она возникла и чем принципиально отличается от других психологических направлений. В последующих главах мы обсудим состояние дел в нескольких различных областях когнитивной психологии, так или иначе связанных с мышлением. Глава 2 посвящена когнитивным исследованиям инсайта – легендарного феномена, озарения, которое порой сопутствует удачным идеям. В главе 3 речь идет о воплощенном познании: о связи мышления и тела и о роли телесных движений в мышлении. Глава 4 знакомит с тем, как на наше мышление влияют некогнитивные факторы – неосознаваемые процессы, находящиеся за пределами привычного нам сознательного мышления. В ней обсуждается многосоставная структура нашей психики и то, как разные части нашего разума «общаются» друг с другом. В главе 5 обсуждаются возможные рекомендации, которые следуют из того, что мы знаем о мышлении, и почему сформулировать эти рекомендации очень непросто."
https://ast.ru/book/kak-smanit-kota-so-shkafa-kognitivnaya-psikhologiya-o-myshlenii-870342/
https://ast.ru/book/kak-smanit-kota-so-shkafa-kognitivnaya-psikhologiya-o-myshlenii-870342/
❤33👍5🤔3❤🔥2🔥2🆒2👏1🏆1💔1👀1💘1
Какова вероятность того, что AGI будет создан в течение начинающегося сегодня четырехлетнего срока новой администрации? На сайте прогнозов Metaculus есть два прогноза – один касается слабого AGI, другой – полноценного AGI. Я посмотрел вероятность на ближайшую дату к 20 января 2029 года, и первый прогноз (слабый AGI) даёт около 70%, второй прогноз (полноценный AGI) даёт около 37%. Даже учитывая абсолютную условность любых прогнозов на такую максимально неопределенную тему, можно сказать, что с существенной степенью вероятности те решения по регуляции развития ИИ, которые будет принимать новая администрация (в т.ч. Маск), и определят конкретный сценарий наступления технологической сингулярности.
❤16👍3✍2⚡1🤔1🙏1🕊1💯1🤨1👀1🫡1
Очень важная новость о том, что большие языковые модели постепенно начинают быть практически полезными для биологических исследований в области замедления старения. Весьма вероятно, что это только начало, и мы скоро увидим, как следующее поколение больших языковых моделей класса GPT-5 / o3 будет еще более практически полезным для таких исследований. В продолжение этой линии, как только через несколько лет будет создан AGI, это, скорее всего позволит очень сильно замедлить старение, по крайней мере, до такого уровня, чтобы люди начали стареть медленнее, чем идет научный прогресс по замедлению старения ("убегание от старения"). Я не думаю, что AGI сам по себе поможет не просто замедлить старение, а вообще его победить, слишком сильным является его механизм. Вероятно, полностью победить старение сможет только ASI около сингулярности, и это предположение дает основную экзистенциальную дихотомию нашего времени – рискнуть и создать ASI, и тогда мы не будем стареть, но, возможно, жить в этом мире, где будет доминировать ИИ, совсем не захочется или человечество вообще исчезнет, или не создавать ASI и на международном уровне жестко заблокировать любые возможности его создания, но тогда старение, вероятно, никогда не будет побеждено. Пока эта экзистенциальная дихотомия "в рабочем порядке", сама собой, без излишней рефлексии разрешается в сторону первого максимально рискового, но зато самого многообещающего сценария.
https://hightech.plus/2025/01/20/novaya-model-openai-gpt-4b-micro-nacelena-na-prodlenie-zhizni
https://hightech.plus/2025/01/20/novaya-model-openai-gpt-4b-micro-nacelena-na-prodlenie-zhizni
Хайтек+
Новая модель OpenAI GPT-4b micro нацелена на продление жизни
OpenAI <a href="https://www.technologyreview.com/2025/01/17/1110086/openai-has-created-an-ai-model-for-longevity-science/" target="_blank">выходит</a> на рынок биотехнологий с моделью GPT-4b micro, разработанной для оптимизации факторов Яманаки — белков,…
🤔14🔥7❤5👍2❤🔥1🙏1🕊1💔1🤨1🤝1💘1
Все, последние тормоза убраны, указ предыдущей администрации о регулировании ИИ отменен и анонсированы новые минимум полутриллионные инвестиции в инфраструктуру ИИ на ближайшие четыре года (проект «Stargate»). Глава Anthropic Дарио Амодеи только что дал следующую оценку ситуации: события последних нескольких месяцев вселили в него абсолютную уверенность в том, что AGI будет создан в течение 2-3 лет. В общем, человечество идет ва-банк, вероятно, все решится уже в 2020-е годы, а 2030-е годы будут постсингулярными, т.е. совершенно непредсказуемыми.
👀28🤔10🤨9❤8⚡4👨💻4🫡3✍2👏2😁1🙏1
Люди оценивают ответы ChatGPT-4 как более эмпатичные, чем ответы людей
https://medicalxpress.com/news/2025-01-chatgpt-empathetic-human-crisis.html
https://medicalxpress.com/news/2025-01-chatgpt-empathetic-human-crisis.html
Medicalxpress
ChatGPT perceived as more empathetic than human crisis responders in experiments
By definition, robots can't feel empathy since it requires the ability to relate to another person's human experience—to put yourself in their shoes.
💯10❤4😎2❤🔥1👍1🔥1😁1💔1🤝1💘1
Ускоряется процесс автоматизации научно-исследовательской деятельности – представлен прототип "Agent Laboratory", в рамках которой LLM-агенты действуют как исследователи, эффективно выполняющие весь цикл работ по изучению поставленной перед ними проблемы.
https://arxiv.org/abs/2501.04227
https://arxiv.org/abs/2501.04227
arXiv.org
Agent Laboratory: Using LLM Agents as Research Assistants
Historically, scientific discovery has been a lengthy and costly process, demanding substantial time and resources from initial conception to final results. To accelerate scientific discovery,...
👏10❤3🔥2😍2👍1👌1🏆1🍾1🆒1😎1
Интересный обзор феномена периодической "гиперфокусировки" внимания при СДВГ, аутизме и других нарушениях
https://link.springer.com/article/10.1007/s00426-019-01245-8
https://link.springer.com/article/10.1007/s00426-019-01245-8
SpringerLink
Hyperfocus: the forgotten frontier of attention
Psychological Research - ‘Hyperfocus’ is a phenomenon that reflects one’s complete absorption in a task, to a point where a person appears to completely ignore or ‘tune...
👍12❤7✍2⚡1🔥1👏1💯1