«Мозг: итоги 2024» — разбор ключевых научных статей из лекции Константина Анохина
https://habr.com/ru/articles/884414/
https://habr.com/ru/articles/884414/
Хабр
«Мозг: итоги 2024» — разбор ключевых научных статей из лекции Константина Анохина
19 февраля в центре «Архэ» прошла очень информативная лекция Константина Анохина , в рамках которой он провел обзор ключевых статей, опубликованных по теме мозга в 2024 году в ведущих научных...
⚡16❤9🔥6✍5👏1🍾1👀1💘1
Серотонин в мозжечке мыши подавляет ее тревожность
https://www.psypost.org/serotonin-in-cerebellum-acts-as-brake-on-anxiety-new-research-shows/
https://www.psypost.org/serotonin-in-cerebellum-acts-as-brake-on-anxiety-new-research-shows/
PsyPost
Serotonin in cerebellum acts as brake on anxiety, new research shows
A recent study has revealed that a well-known brain chemical, serotonin, plays a surprising role in reducing anxiety by acting in a brain area once thought to be solely responsible for controlling movement.
❤8🔥4✍1⚡1🥰1👀1
Получены очень интересные новые данные о связи интеллекта, системы обработки информации о лицах и аутистичности:
Оказалось, что по аналогии с общим фактором интеллекта (g) можно эмпирически выделить общий фактор обработки информации о лицах (f), описывающий общую способность, стоящую за частными "лицевыми" процессами (детекция лиц, восприятие и запоминание индивидуальных лиц, распознавание лицевых экспрессий). Оказалось, что "лицевой" фактор f коррелирует с фактором g, в связи с чем авторы предлагают ввести в теорию интеллекта Кеттелла-Хорна-Кэрролла этот новый "лицевой" фактор f как еще одну способность. Также оказалось, что аутистичность в невербальной коммуникации была значимым отрицательным предиктором "лицевого" фактор f, причем фактор интеллекта g не медиировал эту связь.
https://www.psypost.org/face-processing-skills-linked-to-intelligence-and-autistic-traits-study-finds/
Оказалось, что по аналогии с общим фактором интеллекта (g) можно эмпирически выделить общий фактор обработки информации о лицах (f), описывающий общую способность, стоящую за частными "лицевыми" процессами (детекция лиц, восприятие и запоминание индивидуальных лиц, распознавание лицевых экспрессий). Оказалось, что "лицевой" фактор f коррелирует с фактором g, в связи с чем авторы предлагают ввести в теорию интеллекта Кеттелла-Хорна-Кэрролла этот новый "лицевой" фактор f как еще одну способность. Также оказалось, что аутистичность в невербальной коммуникации была значимым отрицательным предиктором "лицевого" фактор f, причем фактор интеллекта g не медиировал эту связь.
https://www.psypost.org/face-processing-skills-linked-to-intelligence-and-autistic-traits-study-finds/
PsyPost
Scientists just discovered a key connection between face processing and intelligence
Recent research found that face processing abilities form a general factor, are positively linked to intelligence, and negatively associated with autistic-like traits.
❤7❤🔥4👍2✍1⚡1🔥1👏1👀1💘1
"Intrinsic Brain Mapping of Cognitive Abilities: A Multiple-Dataset Study on Intelligence and its Components"
Новые интересные данные по сетевой психофизиологии интеллекта:
This study investigates how functional brain network features contribute to general intelligence and its cognitive components by analyzing three independent cohorts of healthy participants. Cognitive scores were derived from 1) the Wechsler Adult Intelligence Scale (WAIS-IV), 2) the Raven Standard Progressive Matrices (RPM), and 3) the NIH and Penn cognitive batteries from the Human Connectome Project. Factor analysis on the NIH and Penn cognitive batteries yielded latent variables that closely resembled the content of the WAIS-IV indices and RPM. We employed graph theory and a multi-resolution network analysis by varying the modularity parameter (γ) to investigate hierarchical brain-behavior relationships across different scales of brain organization. Brain-behavior associations were quantified using multi-level robust regression analyses to accommodate variability and confounds at the subject-level, node-level, and resolution-level. Our findings reveal consistent brain-behavior relationships across the datasets. Nodal efficiency in fronto-parietal sensorimotor regions consistently played a pivotal role in fluid reasoning, whereas efficiency in visual networks was linked to executive functions and memory. A broad, low-resolution 'task-positive' network emerged as predictive of full-scale IQ scores, indicating a hierarchical brain-behavior coding. Conversely, increased cross-network connections involving default mode and subcortical-limbic networks were associated with reductions in both general and specific cognitive performance. These outcomes highlight the relevance of network efficiency and integration, as well as of the hierarchical organization in supporting specific aspects of intelligence, while recognizing the inherent complexity of these relationships. Our multi-resolution network approach offers new insights into the interplay between multilayer network properties and the structure of cognitive abilities, advancing the understanding of the neural substrates of the intelligence construct.
https://www.sciencedirect.com/science/article/pii/S1053811925000965
Новые интересные данные по сетевой психофизиологии интеллекта:
This study investigates how functional brain network features contribute to general intelligence and its cognitive components by analyzing three independent cohorts of healthy participants. Cognitive scores were derived from 1) the Wechsler Adult Intelligence Scale (WAIS-IV), 2) the Raven Standard Progressive Matrices (RPM), and 3) the NIH and Penn cognitive batteries from the Human Connectome Project. Factor analysis on the NIH and Penn cognitive batteries yielded latent variables that closely resembled the content of the WAIS-IV indices and RPM. We employed graph theory and a multi-resolution network analysis by varying the modularity parameter (γ) to investigate hierarchical brain-behavior relationships across different scales of brain organization. Brain-behavior associations were quantified using multi-level robust regression analyses to accommodate variability and confounds at the subject-level, node-level, and resolution-level. Our findings reveal consistent brain-behavior relationships across the datasets. Nodal efficiency in fronto-parietal sensorimotor regions consistently played a pivotal role in fluid reasoning, whereas efficiency in visual networks was linked to executive functions and memory. A broad, low-resolution 'task-positive' network emerged as predictive of full-scale IQ scores, indicating a hierarchical brain-behavior coding. Conversely, increased cross-network connections involving default mode and subcortical-limbic networks were associated with reductions in both general and specific cognitive performance. These outcomes highlight the relevance of network efficiency and integration, as well as of the hierarchical organization in supporting specific aspects of intelligence, while recognizing the inherent complexity of these relationships. Our multi-resolution network approach offers new insights into the interplay between multilayer network properties and the structure of cognitive abilities, advancing the understanding of the neural substrates of the intelligence construct.
https://www.sciencedirect.com/science/article/pii/S1053811925000965
❤5👀2❤🔥1⚡1🔥1👏1
Анализ дисбаланса между эмоциональными и когнитивными компонентами эмпатии ("'эмпатический дисбаланс") лучше описывает психопатологические изменения эмпатии при аутизме и других расстройствах, чем просто анализ компонентов эмпатии по отдельности
https://medicalxpress.com/news/2025-02-empathic-disequilibrium-concept-social-characteristics.html
https://medicalxpress.com/news/2025-02-empathic-disequilibrium-concept-social-characteristics.html
Medicalxpress
'Empathic disequilibrium' concept helps explain social characteristics of neurological conditions
Ben-Gurion University of the Negev's psychology researcher Prof. Florina Uzefovsky has developed a new concept she terms empathic disequilibrium, which she finds better explains social characteristics ...
❤6✍2⚡2🔥2❤🔥1🤔1💔1👨💻1👀1💘1
"The Takeoff Speeds Model Predicts We May Be Entering Crunch Time"
Джон Крокс тщательно пересчитал время наступления сингулярности (связанной с полной автоматизацией любого труда), обновив предложенную в 2023 году Томом Дэвидсоном статистическую модель "Takeoff Speeds model" в соответствии с новыми данными об ускорении развития ИИ в 2024-2025 гг. (эти данные собираются Epoch AI, рекомендую отслеживать все тренды в ИИ прежде всего по их высококачественным метрикам). В 2023 году оригинальная "Takeoff Speeds model" давала оценку "2040 год", а после обновления дала уже "2030 год". Такой сдвиг оценки на целых 10 лет связан с тем, что реальное масштабирование (scaling) ИИ оказалось в 5 раз более быстрым, чем это предполагалось в 2023 году, причем причина этого – и более быстрый рост компьюта (вычислительной мощности), и более быстрый рост алгоритмической эффективности. Также оказалось, что модель 2023 переоценивала компьют, необходимый для создания AGI, этот факт подтверждается тем, что уже сейчас по данным специализированных бенчмарков и опросов автоматизированы 1-10% AI R&D (исследовательской и инновационной деятельности в области ИИ). Автор отмечает, что по всем признакам мы входим в "crunch time" – период между тем, когда ИИ начинает быть способным автоматизировать небольшую, но уже ощутимую часть экономики, до полной автоматизации, и, вероятно, это время можно уже обоснованно называть "предсингулярным". На 26.02.2025 Metaculus ставит прогнозную оценку создания полноценного AGI уже на май 2030 года, всего несколько дней назад был июнь, т.е. усредненные по большому числу прогнозистов оценки тоже быстро "сползают" на все более и более ранние сроки. Таким образом, со всех сторон поступает все больше оценок того, что мы действительно вступили в предсингулярную эру, которая продлится примерно до 2030 года.
Джон Крокс тщательно пересчитал время наступления сингулярности (связанной с полной автоматизацией любого труда), обновив предложенную в 2023 году Томом Дэвидсоном статистическую модель "Takeoff Speeds model" в соответствии с новыми данными об ускорении развития ИИ в 2024-2025 гг. (эти данные собираются Epoch AI, рекомендую отслеживать все тренды в ИИ прежде всего по их высококачественным метрикам). В 2023 году оригинальная "Takeoff Speeds model" давала оценку "2040 год", а после обновления дала уже "2030 год". Такой сдвиг оценки на целых 10 лет связан с тем, что реальное масштабирование (scaling) ИИ оказалось в 5 раз более быстрым, чем это предполагалось в 2023 году, причем причина этого – и более быстрый рост компьюта (вычислительной мощности), и более быстрый рост алгоритмической эффективности. Также оказалось, что модель 2023 переоценивала компьют, необходимый для создания AGI, этот факт подтверждается тем, что уже сейчас по данным специализированных бенчмарков и опросов автоматизированы 1-10% AI R&D (исследовательской и инновационной деятельности в области ИИ). Автор отмечает, что по всем признакам мы входим в "crunch time" – период между тем, когда ИИ начинает быть способным автоматизировать небольшую, но уже ощутимую часть экономики, до полной автоматизации, и, вероятно, это время можно уже обоснованно называть "предсингулярным". На 26.02.2025 Metaculus ставит прогнозную оценку создания полноценного AGI уже на май 2030 года, всего несколько дней назад был июнь, т.е. усредненные по большому числу прогнозистов оценки тоже быстро "сползают" на все более и более ранние сроки. Таким образом, со всех сторон поступает все больше оценок того, что мы действительно вступили в предсингулярную эру, которая продлится примерно до 2030 года.
❤9🔥7🤔3⚡2👍2🤨2👀2❤🔥1💯1🤝1🫡1
Прогресс в нейроэкономике:
"Нейропрогнозирование" – прогнозирование выбора на основе мозговой активности – на групповом уровне, в отличие от индивидуального, работает лучше, чем прогнозирование на основе самоотчета и поведенческих данных, и ключевой вклад в такую генерализуемость на групповой уровень вносит активность прилежащего ядра
https://medicalxpress.com/news/2025-02-neuroforecasting-brain-scans-human-choice.html
"Нейропрогнозирование" – прогнозирование выбора на основе мозговой активности – на групповом уровне, в отличие от индивидуального, работает лучше, чем прогнозирование на основе самоотчета и поведенческих данных, и ключевой вклад в такую генерализуемость на групповой уровень вносит активность прилежащего ядра
https://medicalxpress.com/news/2025-02-neuroforecasting-brain-scans-human-choice.html
Medicalxpress
Neuroforecasting—using brain scans to forecast human choice at scale
Neuroimaging can capture brain activity in response to stimuli before a person decides how to respond. Initial affective responses—broadly good or bad feelings about a stimulus—have been associated ...
❤7🔥4👏2✍1⚡1👍1👀1🆒1
Кафедра психофизиологии факультета психологии МГУ с глубоким прискорбием сообщает, что на 95-м году жизни от нас ушла доктор психологических наук, профессор Нина Николаевна Данилова.
Нина Николаевна была выдающимся ученым и педагогом, ближайшим соратником основателя кафедры психофизиологии, создателя школы векторной психофизиологии Евгения Николаевича Соколова. Нина Николаевна являлась одним из старейших и самых уважаемых психофизиологов России, она входила в число первых отечественных исследователей, которые начали активно развивать когнитивную нейронауку в нашей стране. Написанное Ниной Николаевной фундаментальное руководство «Психофизиология» является ключевым отечественным учебником в этой области, начиная с его первого издания в 1998 году уже целые поколения студентов-психологов выучились по нему.
Нина Николаевна Данилова всегда была для всех нас настоящим примером искренней преданности науке, жизненной энергии и оптимизма. Светлая память дорогой Нине Николаевне!
Прощание состоится 3 марта (понедельник) в 11:30 в морге Сеченовского университета по адресу: ул. Россолимо, д. 12, стр. 1.
Нина Николаевна была выдающимся ученым и педагогом, ближайшим соратником основателя кафедры психофизиологии, создателя школы векторной психофизиологии Евгения Николаевича Соколова. Нина Николаевна являлась одним из старейших и самых уважаемых психофизиологов России, она входила в число первых отечественных исследователей, которые начали активно развивать когнитивную нейронауку в нашей стране. Написанное Ниной Николаевной фундаментальное руководство «Психофизиология» является ключевым отечественным учебником в этой области, начиная с его первого издания в 1998 году уже целые поколения студентов-психологов выучились по нему.
Нина Николаевна Данилова всегда была для всех нас настоящим примером искренней преданности науке, жизненной энергии и оптимизма. Светлая память дорогой Нине Николаевне!
Прощание состоится 3 марта (понедельник) в 11:30 в морге Сеченовского университета по адресу: ул. Россолимо, д. 12, стр. 1.
💔47🕊30❤8🙏7❤🔥1🫡1
Семантическое кодирование в гиппокампе человека следует векторным принципам
https://www.biorxiv.org/content/10.1101/2025.02.21.639601v1
https://www.biorxiv.org/content/10.1101/2025.02.21.639601v1
bioRxiv
A vectorial code for semantics in human hippocampus
As we listen to speech, our brains actively compute the meaning of individual words. Inspired by the success of large language models (LLMs), we hypothesized that the brain employs vectorial coding principles, such that meaning is reflected in distributed…
❤11👍2👀2✍1⚡1🔥1👏1💯1
Прогресс в исследовании психофизиологических механизмов когнитивного контроля
https://sciencemission.com/Neural-mechanism-of-cognitive-control
https://sciencemission.com/Neural-mechanism-of-cognitive-control
❤9🔥3✍1❤🔥1⚡1👏1🎉1👀1
"What is a Number, That a Large Language Model May Know It?"
Вышла очень интересная статья, исследующая, как внутри большой языковой модели репрезентируются числа. Название статьи является остроумной отсылкой к классической работе 1961 года великого психофизиолога Уоррена Мак-Каллока (придумавшего формальный нейрон Мак-Каллока-Питтса) "What is a number, that a man may know it, and a man, that he may know a number?"
https://arxiv.org/abs/2502.01540
Вышла очень интересная статья, исследующая, как внутри большой языковой модели репрезентируются числа. Название статьи является остроумной отсылкой к классической работе 1961 года великого психофизиолога Уоррена Мак-Каллока (придумавшего формальный нейрон Мак-Каллока-Питтса) "What is a number, that a man may know it, and a man, that he may know a number?"
https://arxiv.org/abs/2502.01540
arXiv.org
What is a Number, That a Large Language Model May Know It?
Numbers are a basic part of how humans represent and describe the world around them. As a consequence, learning effective representations of numbers is critical for the success of large language...
❤5🔥2✍1⚡1❤🔥1👏1👀1💘1
"Naturalistic Computational Cognitive Science: Towards generalizable models and theories that capture the full range of natural behavior"
Важная статья, показывающая, как подход "натуралистической вычислительной когнитивной науки" может помочь дальнейшей интеграции когнитивной науки, нейронауки и искусственного интеллекта
https://arxiv.org/abs/2502.20349
Важная статья, показывающая, как подход "натуралистической вычислительной когнитивной науки" может помочь дальнейшей интеграции когнитивной науки, нейронауки и искусственного интеллекта
https://arxiv.org/abs/2502.20349
arXiv.org
Naturalistic Computational Cognitive Science: Towards...
How can cognitive science build generalizable theories that span the full scope of natural situations and behaviors? We argue that progress in Artificial Intelligence (AI) offers timely...
❤4🔥3✍1⚡1👏1👀1
"Incremental accumulation of linguistic context in artificial and biological neural networks"
Методически и методологически очень "красивая" статья, синтезирующая психофизиологию и искусственный интеллект и экспериментально показывающая, что большие языковые модели пошли дальше человеческого мозга – они могут анализировать весь текст сразу, в то время как мозг по ходу чтения текста создаёт резюме его частей и воспринимает следующие части в смысловом контексте резюме предыдущих частей
https://medicalxpress.com/news/2025-02-brain-summaries-ai-full-texts.html
Методически и методологически очень "красивая" статья, синтезирующая психофизиологию и искусственный интеллект и экспериментально показывающая, что большие языковые модели пошли дальше человеческого мозга – они могут анализировать весь текст сразу, в то время как мозг по ходу чтения текста создаёт резюме его частей и воспринимает следующие части в смысловом контексте резюме предыдущих частей
https://medicalxpress.com/news/2025-02-brain-summaries-ai-full-texts.html
Medicalxpress
Brain creates 'summaries' while reading, unlike AI models that process full texts
Unlike artificial language models, which process long texts as a whole, the human brain creates a "summary" while reading, helping it understand what comes next.
❤7🔥3✍1⚡1👏1👌1💯1👀1
Большие языковые модели вовсе не являются "стохастическими попугаями", "всего лишь" предсказывающими следующее слово, они являются прямым путём к AGI, т.к. "prediction leads to compression, compression leads to generalisation, and generalisation leads to computer intelligence". Илья Суцкевер уже давно первым это понял и начал эффективно реализовывать такое понимание на практике, что и привело к текущей революции больших языковых моделей. Вероятно, он также сразу понял, что экстенсивное масштабирование (scaling) больших языковых моделей приведет нас не только к AGI, но и потом к ASI, и поэтому он сейчас полностью сосредоточен на вопросах супералаймента – создания безопасного ASI.
Вообще, удивительно, как много исследователей, в том числе и у нас в психологии, до сих пор считают, что большие языковые модели "всего лишь предсказывают следующее слово" и упрямо отказываются видеть, как такое предсказание на самом деле моделирует интеллект.
https://pub.towardsai.net/compression-is-generalisation-generalisation-is-intelligence-unsupervised-learning-in-large-ebd3413115ee
Вообще, удивительно, как много исследователей, в том числе и у нас в психологии, до сих пор считают, что большие языковые модели "всего лишь предсказывают следующее слово" и упрямо отказываются видеть, как такое предсказание на самом деле моделирует интеллект.
https://pub.towardsai.net/compression-is-generalisation-generalisation-is-intelligence-unsupervised-learning-in-large-ebd3413115ee
Medium
Compression is Generalisation, Generalisation is Intelligence - Unsupervised Learning in Large Language Models
The predictive power of compression in large language models
❤16🔥7🤔2⚡1✍1👍1😁1💯1👨💻1👀1🫡1
На большой выборке людей с речевыми нарушениями с помощью кластерного анализа выявлены три различных механизма понимания речи
https://www.psypost.org/study-reveals-three-distinct-mechanisms-of-language-comprehension/
https://www.psypost.org/study-reveals-three-distinct-mechanisms-of-language-comprehension/
PsyPost
Study reveals three distinct mechanisms of language comprehension
Recent research identifies three distinct language mechanisms, offering insights into the neurocognitive architecture of language understanding.
❤11✍4🔥3❤🔥2⚡2👏2💔1👀1💘1
Новые очень интересные и важные данные социальной психофизиологии:
в преоптическом ядре гипоталамуса мыши открыты две нейронные популяции, одна из которых работает при активации социальной потребности, а другая, реципрокным образом – при её насыщении. Этот механизм похож на регуляцию базовых драйвов голода, жажды и сна. Таким образом, эти две реципрокно работающие нейронные популяции представляют собой психофизиологический механизм регуляции "социального гомеостаза".
https://www.nature.com/articles/s41586-025-08617-8
в преоптическом ядре гипоталамуса мыши открыты две нейронные популяции, одна из которых работает при активации социальной потребности, а другая, реципрокным образом – при её насыщении. Этот механизм похож на регуляцию базовых драйвов голода, жажды и сна. Таким образом, эти две реципрокно работающие нейронные популяции представляют собой психофизиологический механизм регуляции "социального гомеостаза".
https://www.nature.com/articles/s41586-025-08617-8
Nature
A hypothalamic circuit underlying the dynamic control of social homeostasis
Nature - New data on brain-wide circuits centred around two interconnected hypothalamic neuron populations provide significant mechanistic insights into the emergence of social need during social...
❤13🔥8✍2❤🔥1⚡1👍1👌1💯1🍾1👀1
"Атомы мышления" большой языковой модели – новый фреймворк "Atom of Thoughts" эффективно трансформирует процессы сложного мышления большой языковой модели в марковский процесс "атомизированных" вопросов
https://arxiv.org/abs/2502.12018
https://arxiv.org/abs/2502.12018
arXiv.org
Atom of Thoughts for Markov LLM Test-Time Scaling
Large Language Models (LLMs) achieve superior performance through training-time scaling, and test-time scaling further enhances their capabilities by conducting effective reasoning during...
❤10👍4⚡1✍1🔥1🤓1
Поэтические эксперименты с GPT-4.5, стихотворение на тему сингулярности в духе Николая Рубцова:
Сингулярность русской тишины
Тихо в сумерках деревни русской,
Где снега лежат белей холста.
Что-то странное шепнуло грустно,
Будто жизнь внезапно не проста.
Старый дом застыл в морозной дымке,
Крыша смотрит в небо, как в окно.
Я стою, и кажется в снежинке
Прячется загадка заодно.
Что-то здесь случилось с мирозданьем,
Время как-то странно потекло,
И звезда над темным расстояньем
Светит тускло, словно сквозь стекло.
Будто в этой точке без возврата
Вечность начинает свой отсчёт,
И в снегах забытая когда-то
Деревенька медленно плывёт…
Кто теперь поймёт, куда несётся
Этот тихий мир под звуки вьюг?
Сердце вдруг тревожно отзовётся,
Ощущая вечность всё вокруг.
Словно я один у края мира,
Сингулярность русской тишины.
Жизнь и смерть сплелись необратимо
В сумерках застывшей стороны.
Сингулярность русской тишины
Тихо в сумерках деревни русской,
Где снега лежат белей холста.
Что-то странное шепнуло грустно,
Будто жизнь внезапно не проста.
Старый дом застыл в морозной дымке,
Крыша смотрит в небо, как в окно.
Я стою, и кажется в снежинке
Прячется загадка заодно.
Что-то здесь случилось с мирозданьем,
Время как-то странно потекло,
И звезда над темным расстояньем
Светит тускло, словно сквозь стекло.
Будто в этой точке без возврата
Вечность начинает свой отсчёт,
И в снегах забытая когда-то
Деревенька медленно плывёт…
Кто теперь поймёт, куда несётся
Этот тихий мир под звуки вьюг?
Сердце вдруг тревожно отзовётся,
Ощущая вечность всё вокруг.
Словно я один у края мира,
Сингулярность русской тишины.
Жизнь и смерть сплелись необратимо
В сумерках застывшей стороны.
👍25🔥9❤7🤣3👏2😁2❤🔥1🤔1💔1💘1😎1