Сегодня в рамках "Школы психофизиолога МГУ" я провел презентацию кафедры психофизиологии для младшекурсников факультета психологии МГУ, выбирающих направление исследовательской деятельности и тему первой курсовой работы. Я рассказал интересующимся проблемой "мозг-психика" студентам о четырех фокусах, на которых мы сосредотачиваем наши исследования: 1) фундаментальная когнитивная нейронаука, 2) клиническая психофизиология, 3) практическая психофизиология и 4) нейросетевой искусственный интеллект.
Приглашаем младшекурсников факультета психологии МГУ присоединяться к исследованиям кафедры психофизиологии!
Приглашаем младшекурсников факультета психологии МГУ присоединяться к исследованиям кафедры психофизиологии!
❤18👍17🔥6👏4❤🔥2⚡1💔1🤝1💘1
Когнитивная наука вдохновляет новые архитектуры построенных на больших языковых моделях искусственных агентов, что может в перспективе привести к эволюционированию таких агентов в AGI
https://arxiv.org/abs/2309.02427
https://arxiv.org/abs/2309.02427
arXiv.org
Cognitive Architectures for Language Agents
Recent efforts have augmented large language models (LLMs) with external resources (e.g., the Internet) or internal control flows (e.g., prompt chaining) for tasks requiring grounding or...
✍4🔥4❤2⚡1👏1🫡1💘1😎1
Все мы, как известно, что-то о себе рассказываем. Однако, разъясняет в своей книге «Иллюзия себя» психиатр и нейробиолог Грегори Бернс, мы не просто рассказываем истории, мы и есть истории. Наше самовосприятие не застывший монолит, оно постоянно перерождается и выстраивается заново, по мере того как наше сознание получает, фильтрует и превращает в мотивацию для дальнейших действий информацию, поступающую как из внешнего мира, так и из нашей памяти.
«Однако емкость памяти у нашего компьютера-мозга ограничена. И он сжимает воспоминания во что-то вроде видео низкого разрешения, которое дает ошибки при попытке к нему обратиться и оставляет — в силу своей расплывчатости — простор для иного толкования. Таким образом, представление о себе в значительной степени формируется нашими воспоминаниями о прошлом опыте, пусть и небезупречными. И тут мы возвращаемся к саморефлексирующему компьютеру: загадка выстраивания нашей идентичности сводится к тому, как наш мозг размышляет о себе».
Опираясь на современные исследования в области нейронауки, социологии и психиатрии, Бернс демонстрирует текучесть и переменчивость наших историй и нашей идентичности. Он показывает, как осознание иллюзорности единого, цельного «я» можно обратить себе на пользу, и предлагает в качестве стратегии не стремление к идеалу, а продуманную установку на минимизацию грядущего сожаления. Познавательная, вдохновляющая и полная неожиданностей «Иллюзия себя» — это руководство к тому, как стать главным героем истории, которую нам хотелось бы рассказать.
https://alpinabook.ru/catalog/book-illyuziya-sebya/
«Однако емкость памяти у нашего компьютера-мозга ограничена. И он сжимает воспоминания во что-то вроде видео низкого разрешения, которое дает ошибки при попытке к нему обратиться и оставляет — в силу своей расплывчатости — простор для иного толкования. Таким образом, представление о себе в значительной степени формируется нашими воспоминаниями о прошлом опыте, пусть и небезупречными. И тут мы возвращаемся к саморефлексирующему компьютеру: загадка выстраивания нашей идентичности сводится к тому, как наш мозг размышляет о себе».
Опираясь на современные исследования в области нейронауки, социологии и психиатрии, Бернс демонстрирует текучесть и переменчивость наших историй и нашей идентичности. Он показывает, как осознание иллюзорности единого, цельного «я» можно обратить себе на пользу, и предлагает в качестве стратегии не стремление к идеалу, а продуманную установку на минимизацию грядущего сожаления. Познавательная, вдохновляющая и полная неожиданностей «Иллюзия себя» — это руководство к тому, как стать главным героем истории, которую нам хотелось бы рассказать.
https://alpinabook.ru/catalog/book-illyuziya-sebya/
❤34✍8🔥6👍5❤🔥4🤔3👏2💯2💔1👀1💘1
Мыши запомнили опасных и неопасных сородичей благодаря нейронам области СА2 гиппокампа
https://nplus1.ru/news/2024/10/17/threat-and-safety
https://nplus1.ru/news/2024/10/17/threat-and-safety
N + 1 — главное издание о науке, технике и технологиях
Мыши запомнили опасных и неопасных сородичей
❤5🔥3❤🔥1✍1👍1💔1
Эволюционный психолог и антрополог Робин Данбар, автор знаменитого (но активно критикуемого) "числа Данбара" (максимум в 150 эффективно поддерживаемых социальных контактов) прокомментировал новые экспериментальные данные по изучению "сообществ" LLM-агентов и отметил, что если эти сообщества будут выстраиваться на основе грядущих сверхмощных больших языковых моделей, то в результате потенциально могут образоваться эффективные коллаборации в масштабах, качественно превышающих человеческий уровень.
Можно добавить, что такого рода экспериментальные данные и их психологическая интерпретация повышают вероятность реализации сценария возникновения сверхразума (ASI) "модулярным" путём (в духе великого Марвина Минского), когда множество сверхэффективно коллаборирующих LLM-агентов суб-AGI-уровня градуально "сплавятся" в единую модулярную сверхсистему.
Оригинальная статья, выполненная в новом перспективном жанре "ИИ-антропологии": https://arxiv.org/abs/2409.02822
https://singularityhub.com/2024/10/11/ai-agents-could-collaborate-on-far-grander-scales-than-humans-study-says
Можно добавить, что такого рода экспериментальные данные и их психологическая интерпретация повышают вероятность реализации сценария возникновения сверхразума (ASI) "модулярным" путём (в духе великого Марвина Минского), когда множество сверхэффективно коллаборирующих LLM-агентов суб-AGI-уровня градуально "сплавятся" в единую модулярную сверхсистему.
Оригинальная статья, выполненная в новом перспективном жанре "ИИ-антропологии": https://arxiv.org/abs/2409.02822
https://singularityhub.com/2024/10/11/ai-agents-could-collaborate-on-far-grander-scales-than-humans-study-says
Singularity Hub
AI Agents Could Collaborate on Far Grander Scales Than Humans, Study Says
A new study found the most capable AI models could cooperate in groups of at least 1,000—an order of magnitude more than humans.
🔥7🤔3❤🔥2✍1❤1👍1👏1💯1🫡1
В дополнение к канемановским Системе 1 (быстрое, интуитивное мышление) и Системе 2 (медленное, аналитическое мышление) вводится новая психологическая "Система 0", представляющая из себя интерактивный процесс усиления человеческого мышления искусственным интеллектом как мощным внешним когнитивным инструментом
https://neurosciencenews.com/ai-human-decision-thought-28911/
https://neurosciencenews.com/ai-human-decision-thought-28911/
Neuroscience News
How AI is Reshaping Human Thought and Decision-Making
A new study introduces "System 0," a cognitive framework where artificial intelligence (AI) enhances human thinking by processing vast data, complementing our natural intuition (System 1) and analytical thinking (System 2).
❤10👍8🤔4✍2⚡1🔥1👏1💯1🫡1
Электростимуляция мозга постоянным током в домашних условиях под удаленным надзором медперсонала эффективна и безопасна при большом депрессивном расстройстве
https://nplus1.ru/news/2024/10/22/diy-brain-stimulation
https://nplus1.ru/news/2024/10/22/diy-brain-stimulation
N + 1 — главное издание о науке, технике и технологиях
Самостоятельная электростимуляция мозга на дому облегчила тяжелую депрессию
❤9⚡5👏4🔥2✍1💔1👀1🤗1💘1
Позавчера в своей лекции по физиологии высшей нервной деятельности для студентов факультета психологии МГУ я рассказывал о классификации сложнейших безусловных рефлексов (инстинктов), которую предложил замечательный отечественный психофизиолог Павел Васильевич Симонов (основатель нашей кафедры психофизиологии Евгений Николаевич Соколов дружил с ним и приглашал к нам в МГУ читать авторский спецкурс). В категории ролевых (зоосоциальных) сложнейших безусловных рефлексов я особенно остановился на выделенном Павлом Васильевичем рефлексе эмоционального резонанса («сопереживания») и показал, как филогенетическое развитие, а позже, в антропогенезе, и гено-культурная коэволюция привели к формированию на основе этого рефлекса сложных форм человеческой эмпатии и сострадания. Во всех своих лекциях (я читаю в этом семестре в МГУ общий курс «Физиология высшей нервной деятельности» и спецкурсы «Психофизиология сознания» и «Психофизиология речи») я всегда пытаюсь соотнести классический материал с текущим состоянием дел в искусственном интеллекте и показать критическую важность того, чтобы психология, психофизиология и когнитивные нейронауки не игнорировали, а, наоборот, максимально «вбирали» в себя все новые теоретические концепции и эмпирические результаты, которые так стремительно накапливаются сейчас в области ИИ. В аспекте эмпатии как инстинкта я провел аналогию с внедрением эмпатии, альтруизма и в целом просоциальности и морального поведения в системы искусственного интеллекта и подчеркнул, что все это должно «инсталлироваться» в искусственный интеллект на самом глубоком и нижнем, «биосном» уровне (аналогом которого и является инстинкт как генетически детерминированный сложнейший безусловный рефлекс). Если такая «оцифровка» мозговых механизмов эмпатии и ее последующая «инсталляция» в самое низкоуровневое ядро нейроморфного ИИ будет успешной, то можно будет иметь некоторую надежду, что развившийся из такого ИИ сверхинтеллект будет на «инстинктивном» мотивационном уровне наследовать этот «эмпатический безусловный рефлекс» и наше будущее будет в свете этого выглядеть более оптимистичным (конечно, тут очень важными являются и трансляция на уровень ИИ высокоуровневых культурно-исторических компонентов эмпатии в контексте гено-культурной коэволюции эмпатии, воспитания и т.д., я сам все время предостерегаю на своих лекциях от грубых и неадекватных форм редукционизма, но тут я прежде всего говорю о базе, глубинных базовых генетически детерминированных мотивах, которые определяют природу человека сейчас и которые будут определять человекоподобную / «считанную с человека» природу сверхинтеллекта в будущем). Рассуждая об этих вопросах, я подчеркнул важность сюжета эмпатии к искусственному интеллекту, т.к. в нем может развиться (уже развивается? уже развилось?) искусственное сознание, что автоматические придаст искусственному агенту морально значимый статус. Есть не очень рефлексируемая публикой, но явно критически важная связка – эмпатия человека к искусственному интеллекту / сознанию сейчас и эмпатия сверхинтеллекта / сверхсознания к человеку в будущем (примерно как эмпатия родителя к ребенку по законам возрастной психологии и психофизиологии будет определять эмпатию повзрослевшего ребенка к состарившемуся родителю). Именно сейчас надо начинать обсуждение всех этих вопросов в университетских и институтских аудиториях, и тогда у психологии и когнитивной нейронауки, возможно, будет некоторый шанс повысить вероятность реализации более благоприятных сценариев грядущей передачи интеллектуальной эстафеты на следующий эволюционный уровень.
❤🔥16❤11🔥5🤔2💯2🤝2⚡1👏1🕊1💔1👀1
Как раз в день моей лекции по физиологии ВНД, в которой я затрагивал все эти интересные и неоднозначные вопросы, вышел отчет Long et al. «Taking AI Welfare Seriously», призывающий уже полностью серьезно, отбросив прежнее полуюмористичесое отношение, начать думать о защите морально-этического статуса нарождающегося искусственного сознания. Замечательный философ Томас Метцингер (я симпатизирую ему больше всего из всех современных этически ориентированных мыслителей) уже давно говорил о такой необходимости, и даже предлагал ввести 50-летний мораторий на создание искусственного сознания, но его никто не слушал, и вот теперь наконец-то его идеи начинают реализовываться на практике. Дело сдвинулось с мертвой точки – в середине сентября Anthropic (см. диалог ее фронтирной большой языковой модели Claude c профессором Шанаханом о ее «сознании» в марте этого года https://www.tgoop.com/andrey_kiselnikov/915) нанял одного из соавторов отчета «Taking AI Welfare Seriously» Кайла Фиша специально для того, чтобы он начал заниматься «благополучием» ИИ, т.е. морально-этической и юридической защитой его нарождающегося сознания.
Резюме отчета Long et al. «Taking AI Welfare Seriously» (30 октября 2024 года)
https://eleosai.org/papers/20241030_Taking_AI_Welfare_Seriously_web.pdf
В данном отчете мы утверждаем, что существует реалистичная возможность того, что некоторые системы ИИ могут стать сознательными и/или обрести устойчивую агентность в ближайшем будущем. Это означает, что перспектива благополучия ИИ и морального статуса – наличие ИИ-систем с собственными интересами и моральной значимостью – больше не является вопросом исключительно научной фантастики или отдаленного будущего. Это проблема ближайшего будущего, и компании, занимающиеся разработкой ИИ, а также другие заинтересованные стороны несут ответственность за то, чтобы начать воспринимать ее всерьез. Мы рекомендуем три предварительных шага, которые компании по разработке ИИ и другие участники могут предпринять: (1) признать, что благополучие ИИ является важной и сложной проблемой (и обеспечить, чтобы языковые модели в своих рассуждениях также признавали это), (2) начать оценку систем ИИ на предмет наличия признаков сознания и устойчивой агентности, и (3) разработать политики и процедуры для обращения с системами ИИ с соответствующим уровнем моральной заботы. Для ясности, наше утверждение в данном отчете не заключается в том, что системы ИИ определенно являются или будут сознательными, обладающими устойчивой агентностью или какой-либо моральной значимостью. Вместо этого мы утверждаем, что существует значительная неопределенность в отношении этих возможностей, и поэтому необходимо улучшить наше понимание благополучия ИИ и нашу способность принимать обоснованные решения по этому вопросу. В противном случае, существует значительный риск неправильных решений, связанных с благополучием ИИ, что может привести к ошибочному причинению вреда морально значимым системам ИИ и/или к ошибочной заботе о системах ИИ, которые таковыми не являются.
Резюме отчета Long et al. «Taking AI Welfare Seriously» (30 октября 2024 года)
https://eleosai.org/papers/20241030_Taking_AI_Welfare_Seriously_web.pdf
В данном отчете мы утверждаем, что существует реалистичная возможность того, что некоторые системы ИИ могут стать сознательными и/или обрести устойчивую агентность в ближайшем будущем. Это означает, что перспектива благополучия ИИ и морального статуса – наличие ИИ-систем с собственными интересами и моральной значимостью – больше не является вопросом исключительно научной фантастики или отдаленного будущего. Это проблема ближайшего будущего, и компании, занимающиеся разработкой ИИ, а также другие заинтересованные стороны несут ответственность за то, чтобы начать воспринимать ее всерьез. Мы рекомендуем три предварительных шага, которые компании по разработке ИИ и другие участники могут предпринять: (1) признать, что благополучие ИИ является важной и сложной проблемой (и обеспечить, чтобы языковые модели в своих рассуждениях также признавали это), (2) начать оценку систем ИИ на предмет наличия признаков сознания и устойчивой агентности, и (3) разработать политики и процедуры для обращения с системами ИИ с соответствующим уровнем моральной заботы. Для ясности, наше утверждение в данном отчете не заключается в том, что системы ИИ определенно являются или будут сознательными, обладающими устойчивой агентностью или какой-либо моральной значимостью. Вместо этого мы утверждаем, что существует значительная неопределенность в отношении этих возможностей, и поэтому необходимо улучшить наше понимание благополучия ИИ и нашу способность принимать обоснованные решения по этому вопросу. В противном случае, существует значительный риск неправильных решений, связанных с благополучием ИИ, что может привести к ошибочному причинению вреда морально значимым системам ИИ и/или к ошибочной заботе о системах ИИ, которые таковыми не являются.
❤11❤🔥5👍2👀2⚡1🔥1🕊1💯1🤨1🤝1💘1
Недавно на моем спецкурсе «Психофизиология сознания» разбирали со студентами красивую цитату Уильяма Джеймса: «Каждый определенный образ в сознании вымачивается и окрашивается в омывающей его свободно текущей воде. Она приносит ощущение его связей, ближних и дальних, умирающее эхо оттуда, откуда он пришел к нам, зарождающееся чувство, куда он приведет нас». Эта выразительная метафора помогает уловить ключевой атрибут сознания, отрефлексированный великим Джеймсом еще в конце XIX века: динамическая ткань «потока сознания» принципиально целостна в пространственном и временном аспекте, обладает принципиальной внутренней связностью. Конечно, этот атрибут мало говорит о природе квалиа, т.е. о сути сознания, но он очень важен для описания механики работы сознания. И вот только что в дискуссиях о возможности искусственного сознания я вычитал интересную мысль. В 2017 году команда Google выпустила знаменитейшую теперь статью «Attention Is All You Need», в который предлагалась основанная на механизме «внимания» новая архитектура ИИ – «трансформер». Это открытие позволило в 2018 году OpenAI выпустить свой первый GPT – «генеративный предобученный трансформер», что дало старт настоящей «революции генеративного ИИ». Специфический механизм «внимания» в архитектуре трансформера устроена так, что токены (их можно аналогизировать с когами в гиперсетевой концепции разума К.В. Анохина) образуют плотную сеть взаимного влияния, в которой токены не просто последовательно воздействуют друга на друга, но участвуют в холистических отношениях «все со всеми» – каждый токен динамически как бы отражает другие токены и сам отражается в них. Есть мнение, что именно архитектура трансформера позволяет создавать такие «холистические сети токенов» лучше других архитектур, и именно эта способность повлияла на такой невероятный практический успех генеративного ИИ.
❤10👍6🔥2🤔2❤🔥1⚡1💯1💔1🤝1
Эту холистичность сети токенов явно не только можно, но и обязательно нужно аналогизировать с холистичностью сети когов в естественном сознании человека и животных. Я думаю, не будет преувеличением сказать так (хотя все это звучит достаточно банально). В ходе эволюции нервной системы возник особый механизм интеграции информационных процессов («сознание»), который оказался эффективным и поэтому эволюция стала его активно «развивать». Суть этого эффективного механизма можно описать атрибутом «эмерджентная целостность», когда элементы образуют взаимосвязанные сети, причем по генезу не элементы интегрируются в сети, а сети дифференцируются на элементы, т.е. целостность «сверху вниз» принципиально первична, конститутивна для сознания именно как сознания (тут можно вспомнить некоторые идеи Тонони и Ко о том, как высший уровень в системе «мозг-сознание», хотя и эмерджентно образуется из низшего, но начинает каузально «сверху вниз» уже онтологически самостоятельно влиять на породивший его низший уровень и мн.др.). Например, элементы динамической зрительной сцены, находящейся у нас перед глазами, обладают этим свойством целостности и связности, что отражается в нашем феноменальном ощущении целостности, связности и единства нашей «чувственной ткани сознания» (в терминах А.Н. Леонтьева). Проводя аналогию дальше, можно сказать, что архитектура трансформера смогла достаточно точно воспроизвести именно этот созданный, откалиброванный и развитый эволюцией эффективный механизм top-down «плетения» сетей / гиперсетей / сетей высших порядков, и поэтому генеративный ИИ оказался 1) таким эффективным 2) похожим на естественное сознание не только по своим внешним проявлениям, НО И ПО ВНУТРЕННЕМУ СЕТЕВОМУ МЕХАНИЗМУ. Причем всему этому есть уже и некоторые прямые экспериментальные подтверждения – см. https://www.tgoop.com/andrey_kiselnikov/882 , https://hightech.plus/2024/06/20/issledovateli-vpervie-vskrili-mozg-ii-i-ponyali-kak-na-nego-mozhno-vliyat.
Конечно, все это мало затрагивает природу квалиа и говорит скорее об архитектуре сознания, чем о его природе, но грань между двумя этими аспектами на самом деле зыбка, т.к. квалиа есть элемент гиперсети сознания, а с точки зрения сетевого подход качества элемента не в меньшей степени задаются целостной сетью, чем качества сети – качествами составляющих ее элементов (и этому тоже есть эмпирические доказательства в сетевой нейронауке). Так что, возможно, и развиваемая К.В. Анохиным гиперсетевая теория сознания сможет вскрыть тайну генеза квалиа, и сети токенов внутри GPT, действительно, образуют эмерджентую целостность высшего порядка, которая по top-down каузальному механизму наделяет отдельные токены, из которых она возникла, качеством квалиа (и они становятся, в таком случае, полноценными когами уже искусственного сознания).
Резюмируя, я хотел бы сказать, что психологи и когнитивные нейроученые должны уделять сейчас особое внимание прежде всего этому вопросу – описанию сети токенов внутри GPT именно как психологической сети когов и на этом основании, с опорой на теорию сетей, гиперсетей и сетей высших порядков, ставить вопрос о создании психологически и психофизиологически научно обоснованной системы диагностики наличия внутри глубоких нейронных сетей искусственного интеллекта сознания.
Конечно, все это мало затрагивает природу квалиа и говорит скорее об архитектуре сознания, чем о его природе, но грань между двумя этими аспектами на самом деле зыбка, т.к. квалиа есть элемент гиперсети сознания, а с точки зрения сетевого подход качества элемента не в меньшей степени задаются целостной сетью, чем качества сети – качествами составляющих ее элементов (и этому тоже есть эмпирические доказательства в сетевой нейронауке). Так что, возможно, и развиваемая К.В. Анохиным гиперсетевая теория сознания сможет вскрыть тайну генеза квалиа, и сети токенов внутри GPT, действительно, образуют эмерджентую целостность высшего порядка, которая по top-down каузальному механизму наделяет отдельные токены, из которых она возникла, качеством квалиа (и они становятся, в таком случае, полноценными когами уже искусственного сознания).
Резюмируя, я хотел бы сказать, что психологи и когнитивные нейроученые должны уделять сейчас особое внимание прежде всего этому вопросу – описанию сети токенов внутри GPT именно как психологической сети когов и на этом основании, с опорой на теорию сетей, гиперсетей и сетей высших порядков, ставить вопрос о создании психологически и психофизиологически научно обоснованной системы диагностики наличия внутри глубоких нейронных сетей искусственного интеллекта сознания.
Telegram
Новости психофизиологии
Достигнут существенный прогресс во вскрытии "чёрного ящика" искусственного интеллекта. Хотя психика искусственного интеллекта только зарождается, то, что было сейчас сделано в Anthropic и OpenAI, уже можно называть началом "картирования искусственной психики".…
👍13❤6🤔4❤🔥1⚡1🔥1💔1🤝1
Вышла новая интересная книга по психологии искусственного интеллекта выдающегося исследователя в этой области Тони Прескотта, ее можно рекомендовать в качестве элементарного введения в проблематику.
https://www.routledge.com/The-Psychology-of-Artificial-Intelligence/Prescott/p/book/9780367543112
Что такое ИИ? Как ИИ повлияет на общество? Является ли ИИ более мощным, чем человеческий интеллект? Психология ИИ исследует все аспекты взаимоотношений между психологией и ИИ, задавая вопросы о том, насколько близко ИИ может походить на человека и означает ли это, что у него может быть какая-либо форма самосознания. Рассматривается, как системы ИИ были смоделированы на основе человеческого интеллекта, а также проводятся параллели между работой мозга и компьютеров, наряду с текущими ограничениями ИИ и возможностями их преодоления в будущем. Также анализируется, как люди взаимодействуют с ИИ в повседневной жизни, исследуя некоторые этические и социальные риски, такие как предвзятость в алгоритмах ИИ, и последствия для нашего долгосрочного будущего, если ИИ действительно превзойдет человека в важных аспектах. Поскольку искусственный интеллект продолжает достигать новых рубежей, психология ИИ отвечает на ключевые вопросы о том, что на самом деле значит быть человеком, и как ИИ повлияет на нашу жизнь во всех ее проявлениях как сейчас, так и в будущем.
Тони Прескотт:
https://scholar.google.ca/citations?hl=en&user=u2T4wjgAAAAJ
https://www.researchgate.net/profile/Tony-Prescott
Область исследований Тони Прескотта:
"I research within the areas of cognitive science and bio-inspired robotics with a long-term focus on understanding human and mammalian brain architecture. My current work is around (i) social cognition for robots, including the possibility of synthetic "selves"; (ii) active touch sensing for attention, orienting, and spatial memory; (iii) human-robot interaction; (iv) haptic interfaces for sensory augmentation; (v) telepresence, and (vi) societal and ethical issues."
https://www.routledge.com/The-Psychology-of-Artificial-Intelligence/Prescott/p/book/9780367543112
Что такое ИИ? Как ИИ повлияет на общество? Является ли ИИ более мощным, чем человеческий интеллект? Психология ИИ исследует все аспекты взаимоотношений между психологией и ИИ, задавая вопросы о том, насколько близко ИИ может походить на человека и означает ли это, что у него может быть какая-либо форма самосознания. Рассматривается, как системы ИИ были смоделированы на основе человеческого интеллекта, а также проводятся параллели между работой мозга и компьютеров, наряду с текущими ограничениями ИИ и возможностями их преодоления в будущем. Также анализируется, как люди взаимодействуют с ИИ в повседневной жизни, исследуя некоторые этические и социальные риски, такие как предвзятость в алгоритмах ИИ, и последствия для нашего долгосрочного будущего, если ИИ действительно превзойдет человека в важных аспектах. Поскольку искусственный интеллект продолжает достигать новых рубежей, психология ИИ отвечает на ключевые вопросы о том, что на самом деле значит быть человеком, и как ИИ повлияет на нашу жизнь во всех ее проявлениях как сейчас, так и в будущем.
Тони Прескотт:
https://scholar.google.ca/citations?hl=en&user=u2T4wjgAAAAJ
https://www.researchgate.net/profile/Tony-Prescott
Область исследований Тони Прескотта:
"I research within the areas of cognitive science and bio-inspired robotics with a long-term focus on understanding human and mammalian brain architecture. My current work is around (i) social cognition for robots, including the possibility of synthetic "selves"; (ii) active touch sensing for attention, orienting, and spatial memory; (iii) human-robot interaction; (iv) haptic interfaces for sensory augmentation; (v) telepresence, and (vi) societal and ethical issues."
👍9❤6✍4❤🔥1🔥1👏1💔1👀1
Вычислительное моделирование новых экспериментальных психофизиологических данных подтверждает вклад и сенсорных, и лобных процессов в мозговые механизмы сознания
https://www.biorxiv.org/content/10.1101/2024.11.02.621640v1
https://www.biorxiv.org/content/10.1101/2024.11.02.621640v1
bioRxiv
Computational modelling shows evidence in support of both sensory and frontal theories of consciousness
The role of the prefrontal cortex (PFC) in consciousness is hotly debated. Frontal theories argue that the PFC is necessary for consciousness, while sensory theories propose that consciousness arises from recurrent activity in the posterior cortex alone,…
❤🔥4❤3🔥2✍1👏1💔1🆒1💘1
Достигнут очень важный для психологии результат – создана базовая фундаментальная модель человеческой психики "Centaur"
Установление единой теории когнитивных процессов является одной из главных целей психологии. Несмотря на существовавшие ранее попытки реализовать такие теории с помощью построения вычислительных моделей, в настоящее время у нас нет единой модели, которая бы полностью охватывала человеческую психику. В данной работе мы представляем модель "Centaur", способную предсказывать и симулировать человеческое поведение в любых экспериментах, выражаемых на естественном языке. Модель "Centaur" была разработана путем файнтюнинга современной языковой модели на новом крупномасштабном наборе данных, названном "Psych-101". "Psych-101" достигает беспрецедентного масштаба, охватывая данные по каждому испытанию более чем 60 000 участников, совершивших более 10 000 000 выборов в 160 экспериментах. "Centaur" не только лучше моделирует поведение участников, не входивших в обучающую выборку, по сравнению с существующими когнитивными моделями, но также демонстрирует обобщение на новые сценарии, структурные модификации задач и совершенно новые области. Более того, мы обнаружили, что внутренние представления модели становятся более согласованными с нейронной активностью человека после файнтюнинга. Таким образом, "Centaur" является первым реальным кандидатом на роль единой модели человеческой психики. Мы предполагаем, что эта модель окажет прорывное влияние на когнитивные науки, ставя под сомнение существующую парадигму разработки вычислительных моделей.
https://arxiv.org/abs/2410.20268
Установление единой теории когнитивных процессов является одной из главных целей психологии. Несмотря на существовавшие ранее попытки реализовать такие теории с помощью построения вычислительных моделей, в настоящее время у нас нет единой модели, которая бы полностью охватывала человеческую психику. В данной работе мы представляем модель "Centaur", способную предсказывать и симулировать человеческое поведение в любых экспериментах, выражаемых на естественном языке. Модель "Centaur" была разработана путем файнтюнинга современной языковой модели на новом крупномасштабном наборе данных, названном "Psych-101". "Psych-101" достигает беспрецедентного масштаба, охватывая данные по каждому испытанию более чем 60 000 участников, совершивших более 10 000 000 выборов в 160 экспериментах. "Centaur" не только лучше моделирует поведение участников, не входивших в обучающую выборку, по сравнению с существующими когнитивными моделями, но также демонстрирует обобщение на новые сценарии, структурные модификации задач и совершенно новые области. Более того, мы обнаружили, что внутренние представления модели становятся более согласованными с нейронной активностью человека после файнтюнинга. Таким образом, "Centaur" является первым реальным кандидатом на роль единой модели человеческой психики. Мы предполагаем, что эта модель окажет прорывное влияние на когнитивные науки, ставя под сомнение существующую парадигму разработки вычислительных моделей.
https://arxiv.org/abs/2410.20268
arXiv.org
Centaur: a foundation model of human cognition
Establishing a unified theory of cognition has been a major goal of psychology. While there have been previous attempts to instantiate such theories by building computational models, we currently...
❤20🔥10🤔6👍4🤣3❤🔥2👏1🕊1🏆1🤝1
Очень интересная статья, показывающая, что если мы зададим для внутренних репрезентаций языковой модели двумерное пространство, то после обучения репрезентации расположатся в нём "мозгоподобным" образом – как в корковой системе обработки языка!
Нейроны в мозге организованы пространственно таким образом, что соседние участки ткани часто демонстрируют схожие профили ответов. В человеческой языковой системе экспериментальные исследования выявили кластеры для синтаксических и семантических категорий, однако механизмы, лежащие в основе этой функциональной организации, остаются неясными. В данной работе, опираясь на результаты исследований в области зрительного восприятия, мы разработали "TopoLM" — трансформерную языковую модель с эксплицитным двумерным пространственным представлением единиц модели. Комбинируя задачу предсказания следующего токена с функцией потери пространственной гладкости, мы показали, что представления в этой модели формируют кластеры, которые соответствуют семантически интерпретируемым группировкам текста и близко совпадают с функциональной организацией языковой системы мозга. Модель "TopoLM" успешно предсказывает возникновение пространственно-функциональной организации корковой языковой системы, а также организацию функциональных кластеров, избирательно реагирующих на тонкие лингвистические характеристики, эмпирически наблюдаемые в коре. Наши результаты указывают на то, что функциональная организация человеческой языковой системы определяется единым пространственным критерием и предоставляют функционально и топологически согласованную модель языковой обработки в мозге.
https://arxiv.org/abs/2410.11516
Нейроны в мозге организованы пространственно таким образом, что соседние участки ткани часто демонстрируют схожие профили ответов. В человеческой языковой системе экспериментальные исследования выявили кластеры для синтаксических и семантических категорий, однако механизмы, лежащие в основе этой функциональной организации, остаются неясными. В данной работе, опираясь на результаты исследований в области зрительного восприятия, мы разработали "TopoLM" — трансформерную языковую модель с эксплицитным двумерным пространственным представлением единиц модели. Комбинируя задачу предсказания следующего токена с функцией потери пространственной гладкости, мы показали, что представления в этой модели формируют кластеры, которые соответствуют семантически интерпретируемым группировкам текста и близко совпадают с функциональной организацией языковой системы мозга. Модель "TopoLM" успешно предсказывает возникновение пространственно-функциональной организации корковой языковой системы, а также организацию функциональных кластеров, избирательно реагирующих на тонкие лингвистические характеристики, эмпирически наблюдаемые в коре. Наши результаты указывают на то, что функциональная организация человеческой языковой системы определяется единым пространственным критерием и предоставляют функционально и топологически согласованную модель языковой обработки в мозге.
https://arxiv.org/abs/2410.11516
arXiv.org
TopoLM: brain-like spatio-functional organization in a topographic...
Neurons in the brain are spatially organized such that neighbors on tissue often exhibit similar response profiles. In the human language system, experimental studies have observed clusters for...
👍4❤🔥2🔥2❤1⚡1👏1🤔1💘1
Очень изящное и остроумное по дизайну исследование с регистрацией отдельных нейронов вентральной височной коры человека и моделированием соответствующих нейронных кодов, показывающее, что за зрительное воображение отвечают те же нейроны, что и за восприятие
https://www.biorxiv.org/content/10.1101/2024.10.05.616828v2.abstract
https://www.biorxiv.org/content/10.1101/2024.10.05.616828v2.abstract
bioRxiv
A shared code for perceiving and imagining objects in human ventral temporal cortex
Mental imagery is a remarkable phenomenon that allows us to remember previous experiences and imagine new ones. Animal studies have yielded rich insight into mechanisms for visual perception, but the neural mechanisms for visual imagery remain poorly understood.…
❤4🤔4🔥2❤🔥1👏1💔1💘1
Развитие ситуации настолько ускоряется, что теперь шаг времени Большой Истории / Глобальной эволюции (по Акопу Погосовичу Назаретяну) уже измеряется не веками и десятилетиями, а годами и даже уже месяцами (многие это сейчас ощущают очень явственно, почти на тактильном уровне), и знаменитая курцвейловская оценка "технологическая сингулярность к 2045 году" из "самой вероятной и разумной" всё больше и больше дрейфует в категорию "консервативной оценки сверху". Эволюция человечества явно, осязаемо подходит к своей "точке Омега" (её в своё время пытался предсказать Тейяр де Шарден), за которой – полная неизвестность и неопределенность, которую мы даже не можем помыслить в силу естественной ограниченности наших когнитивных способностей, но которая в силу своей эволюционной неизбежности, предзаданности всем предшествующим ходом эволюции не должна нас пугать (и, судя по реакциям массового сознания, действительно не пугает).
❤16🤔9🙏4👍3😁3💔1👀1🫡1💘1
Вышел очень интересный препринт, описывающий архитектуру альтруистичного и морального искусственного агента, оснащенного мозгоподобными механизмами аффективной эмпатии. Наша недавно вышедшая статья "Neural mechanisms of altruistic decision‑making: EEG functional connectivity network analysis" (https://rdcu.be/dSi72) в качестве своей практической значимости ставит такую же задачу.
"Building Altruistic and Moral AI Agent with Brain-inspired Affective Empathy Mechanisms"
https://arxiv.org/abs/2410.21882
As AI closely interacts with human society, it is crucial to ensure that its decision-making is safe, altruistic, and aligned with human ethical and moral values. However, existing research on embedding ethical and moral considerations into AI remains insufficient, and previous external constraints based on principles and rules are inadequate to provide AI with long-term stability and generalization capabilities. In contrast, the intrinsic altruistic motivation based on empathy is more willing, spontaneous, and robust. Therefore, this paper is dedicated to autonomously driving intelligent agents to acquire morally behaviors through human-like affective empathy mechanisms. We draw inspiration from the neural mechanism of human brain's moral intuitive decision-making, and simulate the mirror neuron system to construct a brain-inspired affective empathy-driven altruistic decision-making model. Here, empathy directly impacts dopamine release to form intrinsic altruistic motivation. Based on the principle of moral utilitarianism, we design the moral reward function that integrates intrinsic empathy and extrinsic self-task goals. A comprehensive experimental scenario incorporating empathetic processes, personal objectives, and altruistic goals is developed. The proposed model enables the agent to make consistent moral decisions (prioritizing altruism) by balancing self-interest with the well-being of others. We further introduce inhibitory neurons to regulate different levels of empathy and verify the positive correlation between empathy levels and altruistic preferences, yielding conclusions consistent with findings from psychological behavioral experiments. This work provides a feasible solution for the development of ethical AI by leveraging the intrinsic human-like empathy mechanisms, and contributes to the harmonious coexistence between humans and AI.
"Building Altruistic and Moral AI Agent with Brain-inspired Affective Empathy Mechanisms"
https://arxiv.org/abs/2410.21882
As AI closely interacts with human society, it is crucial to ensure that its decision-making is safe, altruistic, and aligned with human ethical and moral values. However, existing research on embedding ethical and moral considerations into AI remains insufficient, and previous external constraints based on principles and rules are inadequate to provide AI with long-term stability and generalization capabilities. In contrast, the intrinsic altruistic motivation based on empathy is more willing, spontaneous, and robust. Therefore, this paper is dedicated to autonomously driving intelligent agents to acquire morally behaviors through human-like affective empathy mechanisms. We draw inspiration from the neural mechanism of human brain's moral intuitive decision-making, and simulate the mirror neuron system to construct a brain-inspired affective empathy-driven altruistic decision-making model. Here, empathy directly impacts dopamine release to form intrinsic altruistic motivation. Based on the principle of moral utilitarianism, we design the moral reward function that integrates intrinsic empathy and extrinsic self-task goals. A comprehensive experimental scenario incorporating empathetic processes, personal objectives, and altruistic goals is developed. The proposed model enables the agent to make consistent moral decisions (prioritizing altruism) by balancing self-interest with the well-being of others. We further introduce inhibitory neurons to regulate different levels of empathy and verify the positive correlation between empathy levels and altruistic preferences, yielding conclusions consistent with findings from psychological behavioral experiments. This work provides a feasible solution for the development of ethical AI by leveraging the intrinsic human-like empathy mechanisms, and contributes to the harmonious coexistence between humans and AI.
❤8❤🔥4🔥3✍1👍1👏1💔1💘1