Прогресс в исследовании психофизиологических механизмов когнитивного контроля
https://sciencemission.com/Neural-mechanism-of-cognitive-control
https://sciencemission.com/Neural-mechanism-of-cognitive-control
❤9🔥3✍1❤🔥1⚡1👏1🎉1👀1
"What is a Number, That a Large Language Model May Know It?"
Вышла очень интересная статья, исследующая, как внутри большой языковой модели репрезентируются числа. Название статьи является остроумной отсылкой к классической работе 1961 года великого психофизиолога Уоррена Мак-Каллока (придумавшего формальный нейрон Мак-Каллока-Питтса) "What is a number, that a man may know it, and a man, that he may know a number?"
https://arxiv.org/abs/2502.01540
Вышла очень интересная статья, исследующая, как внутри большой языковой модели репрезентируются числа. Название статьи является остроумной отсылкой к классической работе 1961 года великого психофизиолога Уоррена Мак-Каллока (придумавшего формальный нейрон Мак-Каллока-Питтса) "What is a number, that a man may know it, and a man, that he may know a number?"
https://arxiv.org/abs/2502.01540
arXiv.org
What is a Number, That a Large Language Model May Know It?
Numbers are a basic part of how humans represent and describe the world around them. As a consequence, learning effective representations of numbers is critical for the success of large language...
❤5🔥2✍1⚡1❤🔥1👏1👀1💘1
"Naturalistic Computational Cognitive Science: Towards generalizable models and theories that capture the full range of natural behavior"
Важная статья, показывающая, как подход "натуралистической вычислительной когнитивной науки" может помочь дальнейшей интеграции когнитивной науки, нейронауки и искусственного интеллекта
https://arxiv.org/abs/2502.20349
Важная статья, показывающая, как подход "натуралистической вычислительной когнитивной науки" может помочь дальнейшей интеграции когнитивной науки, нейронауки и искусственного интеллекта
https://arxiv.org/abs/2502.20349
arXiv.org
Naturalistic Computational Cognitive Science: Towards...
How can cognitive science build generalizable theories that span the full scope of natural situations and behaviors? We argue that progress in Artificial Intelligence (AI) offers timely...
❤4🔥3✍1⚡1👏1👀1
"Incremental accumulation of linguistic context in artificial and biological neural networks"
Методически и методологически очень "красивая" статья, синтезирующая психофизиологию и искусственный интеллект и экспериментально показывающая, что большие языковые модели пошли дальше человеческого мозга – они могут анализировать весь текст сразу, в то время как мозг по ходу чтения текста создаёт резюме его частей и воспринимает следующие части в смысловом контексте резюме предыдущих частей
https://medicalxpress.com/news/2025-02-brain-summaries-ai-full-texts.html
Методически и методологически очень "красивая" статья, синтезирующая психофизиологию и искусственный интеллект и экспериментально показывающая, что большие языковые модели пошли дальше человеческого мозга – они могут анализировать весь текст сразу, в то время как мозг по ходу чтения текста создаёт резюме его частей и воспринимает следующие части в смысловом контексте резюме предыдущих частей
https://medicalxpress.com/news/2025-02-brain-summaries-ai-full-texts.html
Medicalxpress
Brain creates 'summaries' while reading, unlike AI models that process full texts
Unlike artificial language models, which process long texts as a whole, the human brain creates a "summary" while reading, helping it understand what comes next.
❤7🔥3✍1⚡1👏1👌1💯1👀1
Большие языковые модели вовсе не являются "стохастическими попугаями", "всего лишь" предсказывающими следующее слово, они являются прямым путём к AGI, т.к. "prediction leads to compression, compression leads to generalisation, and generalisation leads to computer intelligence". Илья Суцкевер уже давно первым это понял и начал эффективно реализовывать такое понимание на практике, что и привело к текущей революции больших языковых моделей. Вероятно, он также сразу понял, что экстенсивное масштабирование (scaling) больших языковых моделей приведет нас не только к AGI, но и потом к ASI, и поэтому он сейчас полностью сосредоточен на вопросах супералаймента – создания безопасного ASI.
Вообще, удивительно, как много исследователей, в том числе и у нас в психологии, до сих пор считают, что большие языковые модели "всего лишь предсказывают следующее слово" и упрямо отказываются видеть, как такое предсказание на самом деле моделирует интеллект.
https://pub.towardsai.net/compression-is-generalisation-generalisation-is-intelligence-unsupervised-learning-in-large-ebd3413115ee
Вообще, удивительно, как много исследователей, в том числе и у нас в психологии, до сих пор считают, что большие языковые модели "всего лишь предсказывают следующее слово" и упрямо отказываются видеть, как такое предсказание на самом деле моделирует интеллект.
https://pub.towardsai.net/compression-is-generalisation-generalisation-is-intelligence-unsupervised-learning-in-large-ebd3413115ee
Medium
Compression is Generalisation, Generalisation is Intelligence - Unsupervised Learning in Large Language Models
The predictive power of compression in large language models
❤16🔥7🤔2⚡1✍1👍1😁1💯1👨💻1👀1🫡1
На большой выборке людей с речевыми нарушениями с помощью кластерного анализа выявлены три различных механизма понимания речи
https://www.psypost.org/study-reveals-three-distinct-mechanisms-of-language-comprehension/
https://www.psypost.org/study-reveals-three-distinct-mechanisms-of-language-comprehension/
PsyPost
Study reveals three distinct mechanisms of language comprehension
Recent research identifies three distinct language mechanisms, offering insights into the neurocognitive architecture of language understanding.
❤11✍4🔥3❤🔥2⚡2👏2💔1👀1💘1
Новые очень интересные и важные данные социальной психофизиологии:
в преоптическом ядре гипоталамуса мыши открыты две нейронные популяции, одна из которых работает при активации социальной потребности, а другая, реципрокным образом – при её насыщении. Этот механизм похож на регуляцию базовых драйвов голода, жажды и сна. Таким образом, эти две реципрокно работающие нейронные популяции представляют собой психофизиологический механизм регуляции "социального гомеостаза".
https://www.nature.com/articles/s41586-025-08617-8
в преоптическом ядре гипоталамуса мыши открыты две нейронные популяции, одна из которых работает при активации социальной потребности, а другая, реципрокным образом – при её насыщении. Этот механизм похож на регуляцию базовых драйвов голода, жажды и сна. Таким образом, эти две реципрокно работающие нейронные популяции представляют собой психофизиологический механизм регуляции "социального гомеостаза".
https://www.nature.com/articles/s41586-025-08617-8
Nature
A hypothalamic circuit underlying the dynamic control of social homeostasis
Nature - New data on brain-wide circuits centred around two interconnected hypothalamic neuron populations provide significant mechanistic insights into the emergence of social need during social...
❤13🔥8✍2❤🔥1⚡1👍1👌1💯1🍾1👀1
"Атомы мышления" большой языковой модели – новый фреймворк "Atom of Thoughts" эффективно трансформирует процессы сложного мышления большой языковой модели в марковский процесс "атомизированных" вопросов
https://arxiv.org/abs/2502.12018
https://arxiv.org/abs/2502.12018
arXiv.org
Atom of Thoughts for Markov LLM Test-Time Scaling
Large Language Models (LLMs) achieve superior performance through training-time scaling, and test-time scaling further enhances their capabilities by conducting effective reasoning during...
❤10👍4⚡1✍1🔥1🤓1
Поэтические эксперименты с GPT-4.5, стихотворение на тему сингулярности в духе Николая Рубцова:
Сингулярность русской тишины
Тихо в сумерках деревни русской,
Где снега лежат белей холста.
Что-то странное шепнуло грустно,
Будто жизнь внезапно не проста.
Старый дом застыл в морозной дымке,
Крыша смотрит в небо, как в окно.
Я стою, и кажется в снежинке
Прячется загадка заодно.
Что-то здесь случилось с мирозданьем,
Время как-то странно потекло,
И звезда над темным расстояньем
Светит тускло, словно сквозь стекло.
Будто в этой точке без возврата
Вечность начинает свой отсчёт,
И в снегах забытая когда-то
Деревенька медленно плывёт…
Кто теперь поймёт, куда несётся
Этот тихий мир под звуки вьюг?
Сердце вдруг тревожно отзовётся,
Ощущая вечность всё вокруг.
Словно я один у края мира,
Сингулярность русской тишины.
Жизнь и смерть сплелись необратимо
В сумерках застывшей стороны.
Сингулярность русской тишины
Тихо в сумерках деревни русской,
Где снега лежат белей холста.
Что-то странное шепнуло грустно,
Будто жизнь внезапно не проста.
Старый дом застыл в морозной дымке,
Крыша смотрит в небо, как в окно.
Я стою, и кажется в снежинке
Прячется загадка заодно.
Что-то здесь случилось с мирозданьем,
Время как-то странно потекло,
И звезда над темным расстояньем
Светит тускло, словно сквозь стекло.
Будто в этой точке без возврата
Вечность начинает свой отсчёт,
И в снегах забытая когда-то
Деревенька медленно плывёт…
Кто теперь поймёт, куда несётся
Этот тихий мир под звуки вьюг?
Сердце вдруг тревожно отзовётся,
Ощущая вечность всё вокруг.
Словно я один у края мира,
Сингулярность русской тишины.
Жизнь и смерть сплелись необратимо
В сумерках застывшей стороны.
👍25🔥9❤7🤣3👏2😁2❤🔥1🤔1💔1💘1😎1
Сегодня исполняется три года, как с нами нет Жанны Марковны Глозман – моего дорогого Учителя по МГУ, ближайшей ученицы Александра Романовича Лурия, выдающегося нейропсихолога и гуманиста. К этой дате вышла замечательная коллективная монография "Жанна Марковна Глозман: ученый, педагог, человек", в которой, кроме трудов самой Жанны Марковны, собраны очень искренние и живые воспоминания ее многочисленных друзей, коллег и учеников. Память о Жанне Марковне продолжает жить и быть всем нам, ее кругу, внутренней опорой и ориентиром.
❤29🕊12🙏7❤🔥4💔3👏1🤗1🫡1💘1
"From Language to Cognition: How LLMs Outgrow the Human Language Network"
Принципиально важная статья на стыке психофизиологии и ИИ, прямо экспериментально доказывающая, что большие языковые модели, в отличие от языковой сети в мозге, имеют тенденцию кодировать более широкие именно когнитивные, а не просто формальные лингвистические структуры. Это можно назвать попыткой вскрыть механизмы таинственного процесса рождения интеллекта из простого "предсказания следующего слова". Статья рекомендуется всем скептикам, особенно из области психологии, до сих пор не верящим в перспективность моделирования сложных когнитивных функций (вплоть до вербального сознания и самосознания) с помощью больших языковых моделей.
https://arxiv.org/abs/2503.01830
Принципиально важная статья на стыке психофизиологии и ИИ, прямо экспериментально доказывающая, что большие языковые модели, в отличие от языковой сети в мозге, имеют тенденцию кодировать более широкие именно когнитивные, а не просто формальные лингвистические структуры. Это можно назвать попыткой вскрыть механизмы таинственного процесса рождения интеллекта из простого "предсказания следующего слова". Статья рекомендуется всем скептикам, особенно из области психологии, до сих пор не верящим в перспективность моделирования сложных когнитивных функций (вплоть до вербального сознания и самосознания) с помощью больших языковых моделей.
https://arxiv.org/abs/2503.01830
arXiv.org
From Language to Cognition: How LLMs Outgrow the Human Language Network
Large language models (LLMs) exhibit remarkable similarity to neural activity in the human language network. However, the key properties of language shaping brain-like representations, and their...
❤14🔥4👍3🤔2✍1⚡1👏1🍾1👀1
"In the next three years, AIs will likely be developed that are capable of outperforming top human mathematicians at proving arbitrary mathematical theorems"
https://epoch.ai/gradient-updates/the-promise-of-reasoning-models
https://epoch.ai/gradient-updates/the-promise-of-reasoning-models
Epoch AI
The promise of reasoning models
AI reasoning models will achieve superhuman performance in math and coding, yet their economic applications will lag behind, limiting real-world impact.
❤6🔥2✍1⚡1❤🔥1👏1🤔1👀1🫡1
Раскрыто происхождение нейронов памяти в гиппокампе человека
https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(25)00031-2
https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(25)00031-2
Trends in Cognitive Sciences
On the origin of memory neurons in the human hippocampus
The hippocampus is essential for episodic memory, yet its coding mechanism remains
debated. In humans, two main theories have been proposed: one suggests that concept
neurons represent specific elements of an episode, while another posits a conjunctive
code…
debated. In humans, two main theories have been proposed: one suggests that concept
neurons represent specific elements of an episode, while another posits a conjunctive
code…
❤11🔥5👏2👀2⚡1❤🔥1💔1🍾1💘1
Сегодня, 6 марта, Anthropic выпустила оценку того, что ИИ уровня раннего (слабого) AGI будет создан в конце 2026 – начале 2027 года. Его способности будут включать:
1. Intellectual capabilities matching or exceeding that of Nobel Prize winners across most disciplines — including biology, computer science, mathematics, and engineering.
2. The ability to navigate all interfaces available to a human doing digital work today, including the ability to process and generate text, audio, and video, the ability to autonomously control technology instruments like mice and keyboards, and the ability to access and browse the internet.
3. The ability to autonomously reason through complex tasks over extended periods — hours, days, or even weeks — seeking clarification and feedback when needed, much like a highly capable employee would.
4. The ability to interface with the physical world; controlling laboratory equipment, robotic systems, and manufacturing tools through digital connections.
Из описания видно, что имеется ввиду именно ранний (слабый) AGI, а не полноценный AGI/ASI.
На 6 марта 50%-ный прогноз создания раннего (слабого) AGI по усредненным данным 1590 прогнозистов Metaculus дает октябрь 2026 года, что совпадает с прогнозом Anthropic и подтверждает, что к нему надо относиться серьезно.
1. Intellectual capabilities matching or exceeding that of Nobel Prize winners across most disciplines — including biology, computer science, mathematics, and engineering.
2. The ability to navigate all interfaces available to a human doing digital work today, including the ability to process and generate text, audio, and video, the ability to autonomously control technology instruments like mice and keyboards, and the ability to access and browse the internet.
3. The ability to autonomously reason through complex tasks over extended periods — hours, days, or even weeks — seeking clarification and feedback when needed, much like a highly capable employee would.
4. The ability to interface with the physical world; controlling laboratory equipment, robotic systems, and manufacturing tools through digital connections.
Из описания видно, что имеется ввиду именно ранний (слабый) AGI, а не полноценный AGI/ASI.
На 6 марта 50%-ный прогноз создания раннего (слабого) AGI по усредненным данным 1590 прогнозистов Metaculus дает октябрь 2026 года, что совпадает с прогнозом Anthropic и подтверждает, что к нему надо относиться серьезно.
👀11❤7👍2🍾2⚡1🔥1🤔1🤣1🫡1
"A Three-Layer Model of LLM Psychology"
Очень интересная трехслойная модель искусственной психики большой языковой модели. Возможно, эта модель станет не менее важной для психологии ИИ, чем в свое время трехслойная модель психики Фрейда – для психологии человека. Особенно красивой, мне кажется, является метафора Океана из "Соляриса" Лема для самого глубокого слоя модели. Я думаю, всем психологам будет интересно ознакомиться с этой моделью и попытаться соотнести ее с существующими в нашей науке моделями естественной психики.
https://www.lesswrong.com/posts/zuXo9imNKYspu9HGv/a-three-layer-model-of-llm-psychology
Очень интересная трехслойная модель искусственной психики большой языковой модели. Возможно, эта модель станет не менее важной для психологии ИИ, чем в свое время трехслойная модель психики Фрейда – для психологии человека. Особенно красивой, мне кажется, является метафора Океана из "Соляриса" Лема для самого глубокого слоя модели. Я думаю, всем психологам будет интересно ознакомиться с этой моделью и попытаться соотнести ее с существующими в нашей науке моделями естественной психики.
https://www.lesswrong.com/posts/zuXo9imNKYspu9HGv/a-three-layer-model-of-llm-psychology
Lesswrong
A Three-Layer Model of LLM Psychology — LessWrong
This post offers an accessible model of psychology of character-trained LLMs like Claude. …
❤12⚡3❤🔥1🔥1👏1🤔1💔1👀1
«Об углублении предсингулярного хаоса» – оценка ситуации на 07.03.2025
Многие сейчас сильно удивляются всем тем странностям и неожиданным турбулентностям, которые начинают происходить на международной арене. Эти странности и турбулентности выражаются в нарастающей хаотизации прежде стабильно функционирующих систем, разрыве старых прочных связей, многоуровневой дезорганизации ранее четко работающих стабилизирующих механизмов и проч. Есть поверхностные объяснения этих событий (новая администрация и т.д.), но причины явно гораздо глубже, и все это началось существенно раньше 20.01.2025. Эти причины – в том, что при приближении к точке сингулярности наша общепланетная система будет все больше погружаться в т.н. «предсингулярный хаос», который уже давно предсказали футурологи и который неожиданно (неожиданно для тех, кто не верил в тренды развития ИИ) начинает становиться реальностью. Всё, что мы сейчас наблюдаем как первые действительно серьезные странности – только начало, т.к. маховик основного механизма углубления предсингулярного хаоса – нарастания конкуренции за возможность первыми создать сверхинтеллект – только начинает раскручиваться по-настоящему. Если текущие тренды продолжатся, то в течение ближайших лет на международной арене нас ожидают удивительные события, которые просто не с чем сравнить в истории – старые союзы будут стремительно распадаться, новые неожиданные союзы будут стремительно возникать, и даже может зашататься сама базовая форма организации человечества в национальные государства со всеми их союзами. Все говорит о том, что текущий 2025 год (и, вероятно, и 2026 год) станут последними полутора-двумя годами привычного «старого» мира, а дальше углубляющийся предсингулярный хаос в 2027-2030 гг начнет сотрясать самые основы миропорядка и могут возникнуть совершенно невероятные из нашего «старого доброго 2025 года» расклады. В такой ситуации остается только стоически склониться перед полной неопределенностью стремительно надвигающегося бурного будущего, смиренно надеяться на лучшее (см. «2025 год – год экзистенциальной надежды» https://www.tgoop.com/andrey_kiselnikov/1172) и постараться максимально полноценно и счастливо прожить в привычном модусе несколько оставшихся относительно спокойных «старорежимных» лет.
Многие сейчас сильно удивляются всем тем странностям и неожиданным турбулентностям, которые начинают происходить на международной арене. Эти странности и турбулентности выражаются в нарастающей хаотизации прежде стабильно функционирующих систем, разрыве старых прочных связей, многоуровневой дезорганизации ранее четко работающих стабилизирующих механизмов и проч. Есть поверхностные объяснения этих событий (новая администрация и т.д.), но причины явно гораздо глубже, и все это началось существенно раньше 20.01.2025. Эти причины – в том, что при приближении к точке сингулярности наша общепланетная система будет все больше погружаться в т.н. «предсингулярный хаос», который уже давно предсказали футурологи и который неожиданно (неожиданно для тех, кто не верил в тренды развития ИИ) начинает становиться реальностью. Всё, что мы сейчас наблюдаем как первые действительно серьезные странности – только начало, т.к. маховик основного механизма углубления предсингулярного хаоса – нарастания конкуренции за возможность первыми создать сверхинтеллект – только начинает раскручиваться по-настоящему. Если текущие тренды продолжатся, то в течение ближайших лет на международной арене нас ожидают удивительные события, которые просто не с чем сравнить в истории – старые союзы будут стремительно распадаться, новые неожиданные союзы будут стремительно возникать, и даже может зашататься сама базовая форма организации человечества в национальные государства со всеми их союзами. Все говорит о том, что текущий 2025 год (и, вероятно, и 2026 год) станут последними полутора-двумя годами привычного «старого» мира, а дальше углубляющийся предсингулярный хаос в 2027-2030 гг начнет сотрясать самые основы миропорядка и могут возникнуть совершенно невероятные из нашего «старого доброго 2025 года» расклады. В такой ситуации остается только стоически склониться перед полной неопределенностью стремительно надвигающегося бурного будущего, смиренно надеяться на лучшее (см. «2025 год – год экзистенциальной надежды» https://www.tgoop.com/andrey_kiselnikov/1172) и постараться максимально полноценно и счастливо прожить в привычном модусе несколько оставшихся относительно спокойных «старорежимных» лет.
❤24🔥9🙏5🤔4👍3🤨3👀3🕊2🍾2✍1🫡1
Ученые определили нейроны, контролирующие поведение упорства
Учёные изучили, как мозг млекопитающих решает продолжить действие, переключиться на другое занятие или сдаться. Они обнаружили, что этот процесс контролируют три вида нейронов в стволе мозга. Это нейроны срединного ядра шва, которые высвобождают три нейромедиатора: ГАМК, глутамат и серотонин. В будущем результаты исследования помогут лечить обсессивно-компульсивное расстройство, депрессию, а также синдром дефицита внимания и гиперактивности.
https://hightech.plus/2025/03/06/uchenie-opredelili-neironi-kontroliruyushie-povedenie-uporstva
Учёные изучили, как мозг млекопитающих решает продолжить действие, переключиться на другое занятие или сдаться. Они обнаружили, что этот процесс контролируют три вида нейронов в стволе мозга. Это нейроны срединного ядра шва, которые высвобождают три нейромедиатора: ГАМК, глутамат и серотонин. В будущем результаты исследования помогут лечить обсессивно-компульсивное расстройство, депрессию, а также синдром дефицита внимания и гиперактивности.
https://hightech.plus/2025/03/06/uchenie-opredelili-neironi-kontroliruyushie-povedenie-uporstva
Хайтек+
Ученые определили нейроны, ответственные за проявление упорства
Учёные из Университетского колледжа Лондона (UCL) изучили, как мозг млекопитающих решает продолжить действие, переключиться на другое занятие или сдаться. Они обнаружили, что этот процесс контролируют 3 вида нейронов в стволе мозга. Это нейроны срединного…
👍14❤10🔥5❤🔥2👏2⚡1😁1💔1👀1