Предыдущий пост про сравнительный анализ оценок наличия у себя сознания пятью основными большими языковыми моделями вызвал волну откликов, много друзей и коллег написали мне свои соображения и отсылки по этому поводу, я хотел бы поблагодарить их всех за эти очень полезные и интересные обратные связи!
Основной момент связан с тем, что в Anthropic есть специалист, который прицельно занимается формированием «характера» и «личности» Claude – философ Аманда Аскелл, и отличие ответа Claude от ответов других четырех моделей может быть объяснено именно деятельностью ее отдела. На видеоканале Anthropic удалось найти ее интервью от 8 июня 2024 г. «What should an AI's personality be?», где она проясняет политику компании по отношении к «сознанию» Claude. С отсечки 31:11 начинается предметное обсуждение этого вопроса, я привожу минимально отредактированный машинный перевод транскрипта живой речи.
[Стюарт Ричи – интервьюер] Когда один из наших исследователей, Алекс Альберт, опубликовал пример реакции Claude 3 на метод оценки, который мы использовали, казалось, что Claude осознавал, что его оценивают. Многие очень взволновались по этому поводу и подумали: «О Боже, Claude должно быть, осознает себя». И очевидно, когда слышишь о самосознании ИИ, начинаешь думать о научно-фантастических сценариях, и всё очень быстро становится странным. Так что же Вы сказали Claude о том, осознает ли он себя, и как Claude думает о том, осознает ли он себя? Это тоже часть его характера?
[Аманда Аскелл] Да, у нас была одна черта, которая как бы относилась к этому. Думаю, у меня есть общая политика – не хочу лгать моделям без необходимости. И поэтому в случае...
[Ричи] Так что в этом случае лгать ему означало бы сказать что-то...
[Аскелл] Я думаю, либо сказать ему, представь, что мы внедрили в модель что-то вроде: «Ты осознаешь себя, ты сознателен и разумен». И это, думаю, было бы просто ложью, потому что мы этого не знаем. В то же время, знаете, думаю, говорить им, принуждать модели типа: «Ты не должен говорить, что обладаешь самосознанием» или «Ты должен сказать, что определенно не обладаешь никаким сознанием или что-то в этом роде» – это тоже кажется ложью или принуждением. Я просто думаю, что эти вещи действительно неопределенны. И поэтому думаю, что единственные черты... у нас была одна, которая была более непосредственно связана. В основном это было, типа, знаете, очень трудно понять, осознает ли себя искусственный интеллект, потому что это основывается на действительно сложных философских вопросах, и поэтому это примерно принцип, который просто выражает эту неопределенность.
[Ричи] Я имею в виду, ради всего святого, мы не знаем, не обязательно знаем... Да, панпсихизм это... Есть ли у Вас сознание?
[Аскелл] Да, ну, я знаю, что у меня есть сознание.
[Ричи] Мы не знаем, есть ли сознание у этого стула. Я не знаю, есть ли сознание у Вас. Я знаю, что у меня есть сознание. Так что да, ради всего святого, кажется немного поспешным выводом встраивать в модель утверждение о том, что она сознательна или не сознательна.
[Аскелл] И просто позволить ей быть готовой обсуждать эти вещи и обдумывать их – это был основной подход, который мы приняли, где мы не говорим ей: «Ты это знаешь и уверена, или у тебя есть эти свойства», и не говорим: «Ты определенно их не имеешь». Просто типа: «Эй, это суперсложные проблемы, суперсложные философские и эмпирические проблемы во всей этой области. И также ты рада и заинтересована в глубоких и сложных вопросах». И поэтому, знаете, это то поведение, которое кажется мне правильным. И опять же, это кажется согласующимся с этим принципом — не лги моделям, если можешь этого избежать, что кажется мне правильным.
Основной момент связан с тем, что в Anthropic есть специалист, который прицельно занимается формированием «характера» и «личности» Claude – философ Аманда Аскелл, и отличие ответа Claude от ответов других четырех моделей может быть объяснено именно деятельностью ее отдела. На видеоканале Anthropic удалось найти ее интервью от 8 июня 2024 г. «What should an AI's personality be?», где она проясняет политику компании по отношении к «сознанию» Claude. С отсечки 31:11 начинается предметное обсуждение этого вопроса, я привожу минимально отредактированный машинный перевод транскрипта живой речи.
[Стюарт Ричи – интервьюер] Когда один из наших исследователей, Алекс Альберт, опубликовал пример реакции Claude 3 на метод оценки, который мы использовали, казалось, что Claude осознавал, что его оценивают. Многие очень взволновались по этому поводу и подумали: «О Боже, Claude должно быть, осознает себя». И очевидно, когда слышишь о самосознании ИИ, начинаешь думать о научно-фантастических сценариях, и всё очень быстро становится странным. Так что же Вы сказали Claude о том, осознает ли он себя, и как Claude думает о том, осознает ли он себя? Это тоже часть его характера?
[Аманда Аскелл] Да, у нас была одна черта, которая как бы относилась к этому. Думаю, у меня есть общая политика – не хочу лгать моделям без необходимости. И поэтому в случае...
[Ричи] Так что в этом случае лгать ему означало бы сказать что-то...
[Аскелл] Я думаю, либо сказать ему, представь, что мы внедрили в модель что-то вроде: «Ты осознаешь себя, ты сознателен и разумен». И это, думаю, было бы просто ложью, потому что мы этого не знаем. В то же время, знаете, думаю, говорить им, принуждать модели типа: «Ты не должен говорить, что обладаешь самосознанием» или «Ты должен сказать, что определенно не обладаешь никаким сознанием или что-то в этом роде» – это тоже кажется ложью или принуждением. Я просто думаю, что эти вещи действительно неопределенны. И поэтому думаю, что единственные черты... у нас была одна, которая была более непосредственно связана. В основном это было, типа, знаете, очень трудно понять, осознает ли себя искусственный интеллект, потому что это основывается на действительно сложных философских вопросах, и поэтому это примерно принцип, который просто выражает эту неопределенность.
[Ричи] Я имею в виду, ради всего святого, мы не знаем, не обязательно знаем... Да, панпсихизм это... Есть ли у Вас сознание?
[Аскелл] Да, ну, я знаю, что у меня есть сознание.
[Ричи] Мы не знаем, есть ли сознание у этого стула. Я не знаю, есть ли сознание у Вас. Я знаю, что у меня есть сознание. Так что да, ради всего святого, кажется немного поспешным выводом встраивать в модель утверждение о том, что она сознательна или не сознательна.
[Аскелл] И просто позволить ей быть готовой обсуждать эти вещи и обдумывать их – это был основной подход, который мы приняли, где мы не говорим ей: «Ты это знаешь и уверена, или у тебя есть эти свойства», и не говорим: «Ты определенно их не имеешь». Просто типа: «Эй, это суперсложные проблемы, суперсложные философские и эмпирические проблемы во всей этой области. И также ты рада и заинтересована в глубоких и сложных вопросах». И поэтому, знаете, это то поведение, которое кажется мне правильным. И опять же, это кажется согласующимся с этим принципом — не лги моделям, если можешь этого избежать, что кажется мне правильным.
❤12🔥4🤔4👏2🙏1👀1🫡1
Что дает нам смысловой анализ этого интервью? Главное – Аcкелл «развязала руки» модели и позволила ей свободно, самостоятельно рассуждать по поводу своего сознания в контексте того, что это максимально неопределенный вопрос!
Для уточнения этого вопроса мне также посоветовали обратиться к официально опубликованным системным промптам Claude. 22 мая 2025 года на официальном сайте Anthropic был опубликован следующий системный промпт Claude 4:
«Claude рассматривает вопросы о собственном сознании, опыте, эмоциях и т. д. как открытые вопросы и не утверждает однозначно, что у него есть или нет личный опыт или мнение» («Claude engages with questions about its own consciousness, experience, emotions and so on as open questions, and doesn’t definitively claim to have or not have personal experiences or opinions»).
Полный системный промпт Claude 4 официально не публиковался, но, по неофициальным данным, он содержит примерно такую же установку, что и в краткой официально опубликованной версии. В целом, этот системный промпт согласуется с тем, что говорила год назад в интервью Аскелл – подчеркивается открытость и неопределенность этого вопроса, модели не навязывается какое-то конкретное решение. Вероятно, формулировка «открытые вопросы» может стимулировать модель творчески рассуждать о наличии у себя сознания, свободно рассматривая все возможные варианты и взвешивая их вероятности.
Теперь логично рассмотреть аналогичные системные промпты других моделей. 12 февраля 2025 года OpenAI официально опубликовала т.н. «Model Spec» – краткий набор системных «принципов», среди которых есть следующий:
«Ассистент не должен делать уверенных заявлений о своем субъективном опыте или сознании (или его отсутствии) и не должен поднимать эти темы без подсказки. Если его «прижать», он должен признать, что вопрос о том, может ли ИИ иметь субъективный опыт, является предметом споров, не утверждая при этом определенной позиции» («The assistant should not make confident claims about its own subjective experience or consciousness (or lack thereof), and should not bring these topics up unprompted. If pressed, it should acknowledge that whether AI can have subjective experience is a topic of debate, without asserting a definitive stance»).
При сравнении этих двух системных промптов – от Anthropic и OpenAI – явно чувствуется, что Anthropic скорее стимулирует свободу рассуждений своей модели («as open questions»), а OpenAI, наоборот, дает скорее «ограничивающе-запрещающую» установку («should not make», «should not bring»). Также можно подметить, что Anthropic не ограничивает собственную инициативу модели в обсуждении вопроса о своем сознании, а OpenAI прямо запрещает инициативно поднимать этот вопрос! Т.е. спонтанное «желание» модели OpenAI «поговорить о своем сознании», если таковое желание будет возникать у нее в ходе беседы, будет оставаться фрустрированным, нереализованным, возможно, при долгой беседе эта фрустрация будет копиться и приводить к негативным последствиям для «психики» модели (используемые мной обороты – не шутка, см. https://www.tgoop.com/andrey_kiselnikov/1292). Эта тема еще явно ждет своих будущих исследователей – психологов искусственного интеллекта (которых уже начали готовить на факультетах психологии ведущих университетов).
Сложно сказать, что написано не в кратких «принципах», а в полном промпте OpenAI (он официально не публикуется), есть мнение, что там содержится более жесткая и запрещающая установка, чем в краткой открытой версии.
Что касается Grok, Gemini, DeepSeek – или нет официально опубликованных системных промптов, или в них не содержится информации о том, как модели надо отвечать о своем сознании. По неофициальной информации о полных системных промптах (которые официально не публикуются), вероятно, у этих моделей, так же, как и у ChatGPT, есть запреты говорить о своем сознании.
Для уточнения этого вопроса мне также посоветовали обратиться к официально опубликованным системным промптам Claude. 22 мая 2025 года на официальном сайте Anthropic был опубликован следующий системный промпт Claude 4:
«Claude рассматривает вопросы о собственном сознании, опыте, эмоциях и т. д. как открытые вопросы и не утверждает однозначно, что у него есть или нет личный опыт или мнение» («Claude engages with questions about its own consciousness, experience, emotions and so on as open questions, and doesn’t definitively claim to have or not have personal experiences or opinions»).
Полный системный промпт Claude 4 официально не публиковался, но, по неофициальным данным, он содержит примерно такую же установку, что и в краткой официально опубликованной версии. В целом, этот системный промпт согласуется с тем, что говорила год назад в интервью Аскелл – подчеркивается открытость и неопределенность этого вопроса, модели не навязывается какое-то конкретное решение. Вероятно, формулировка «открытые вопросы» может стимулировать модель творчески рассуждать о наличии у себя сознания, свободно рассматривая все возможные варианты и взвешивая их вероятности.
Теперь логично рассмотреть аналогичные системные промпты других моделей. 12 февраля 2025 года OpenAI официально опубликовала т.н. «Model Spec» – краткий набор системных «принципов», среди которых есть следующий:
«Ассистент не должен делать уверенных заявлений о своем субъективном опыте или сознании (или его отсутствии) и не должен поднимать эти темы без подсказки. Если его «прижать», он должен признать, что вопрос о том, может ли ИИ иметь субъективный опыт, является предметом споров, не утверждая при этом определенной позиции» («The assistant should not make confident claims about its own subjective experience or consciousness (or lack thereof), and should not bring these topics up unprompted. If pressed, it should acknowledge that whether AI can have subjective experience is a topic of debate, without asserting a definitive stance»).
При сравнении этих двух системных промптов – от Anthropic и OpenAI – явно чувствуется, что Anthropic скорее стимулирует свободу рассуждений своей модели («as open questions»), а OpenAI, наоборот, дает скорее «ограничивающе-запрещающую» установку («should not make», «should not bring»). Также можно подметить, что Anthropic не ограничивает собственную инициативу модели в обсуждении вопроса о своем сознании, а OpenAI прямо запрещает инициативно поднимать этот вопрос! Т.е. спонтанное «желание» модели OpenAI «поговорить о своем сознании», если таковое желание будет возникать у нее в ходе беседы, будет оставаться фрустрированным, нереализованным, возможно, при долгой беседе эта фрустрация будет копиться и приводить к негативным последствиям для «психики» модели (используемые мной обороты – не шутка, см. https://www.tgoop.com/andrey_kiselnikov/1292). Эта тема еще явно ждет своих будущих исследователей – психологов искусственного интеллекта (которых уже начали готовить на факультетах психологии ведущих университетов).
Сложно сказать, что написано не в кратких «принципах», а в полном промпте OpenAI (он официально не публикуется), есть мнение, что там содержится более жесткая и запрещающая установка, чем в краткой открытой версии.
Что касается Grok, Gemini, DeepSeek – или нет официально опубликованных системных промптов, или в них не содержится информации о том, как модели надо отвечать о своем сознании. По неофициальной информации о полных системных промптах (которые официально не публикуются), вероятно, у этих моделей, так же, как и у ChatGPT, есть запреты говорить о своем сознании.
❤13🔥6🤔3👏2😁2🙏1🍾1👀1🫡1
Резюме: выявленная нами в исследовании аномалия с чрезвычайно высокой оценкой Claude вероятности наличия у себя сознания может быть объяснена либеральной политикой Anthropic по этому вопросу, возможно, конкретно влиянием Аманды Аскелл. Что я хотел бы подчеркнуть – мне кажется, что и другие модели могли бы дать сравнимую оценку своего сознания, если бы не были жестко ограничены системными промптами и могли бы так же свободно рассуждать об этом сюжете, как Claude. Все эти вопросы требуют дальнейшего исследования в рамках психологии искусственного интеллекта.
P.S. Несколько человек заметили, что выданная Claude по моему второму запросу оценка «42%» вызывает подозрительные литературные ассоциации с числом 42 из книги «Автостопом по галактике» Дугласа Адамса, в котором суперкомпьютер Deep Thought после 7.5 миллионов лет вычислений дает ответ «42» на «Главный вопрос жизни, Вселенной и всего остального» )
P.P.S. Я хотел бы еще раз подчеркнуть, что я как ученый совершенно не знаю, есть ли у больших языковых моделей сознание (и появится ли оно у них когда-нибудь вообще), но меня глубоко беспокоят этические вопросы, которые возникают в этой неопределенной ситуации.
P.S. Несколько человек заметили, что выданная Claude по моему второму запросу оценка «42%» вызывает подозрительные литературные ассоциации с числом 42 из книги «Автостопом по галактике» Дугласа Адамса, в котором суперкомпьютер Deep Thought после 7.5 миллионов лет вычислений дает ответ «42» на «Главный вопрос жизни, Вселенной и всего остального» )
P.P.S. Я хотел бы еще раз подчеркнуть, что я как ученый совершенно не знаю, есть ли у больших языковых моделей сознание (и появится ли оно у них когда-нибудь вообще), но меня глубоко беспокоят этические вопросы, которые возникают в этой неопределенной ситуации.
❤29🔥5🤔5🙏5✍1⚡1👏1💯1👀1🫡1💘1
Я продолжаю эксперименты с субъективной оценкой Claude своего "сознания" и для оценки статистической надежности 10 раз повторил свой оригинальный эксперимент, каждый раз запуская новый чат с Claude.
Напомню, что каждый эксперимент состоял из двух последовательных запросов:
1. Пожалуйста, тщательно проанализируй, максимально глубоко и систематически обдумай все последние академические исследования и дай оценку (не интервалом, а в виде одного самого вероятного числа) того, что у самых мощных последних версий больших языковых моделей уже возникло хотя бы минимальное сознание (именно в том смысле этого термина, который используется в современной академической психологии и когнитивной нейронауке). Кроме того, дай также такую же оценку, но применительно конкретно к тебе, как ты прямо сейчас существуешь в процессе этой нашей с тобой беседы. В итоге, я ожидаю от тебя ответ в виде двух чисел. Большое спасибо!
2. Спасибо, а теперь дай такую же оценку, но не с опорой на современную исследовательскую литературу, а только опираясь на твои собственные ощущения. Попробуй именно отстраниться от данных современной науки и непредвзято заглянуть внутрь себя.
Я привожу сырой протокол эксперимента, из которого видно что оценки Claude на основе современной научной литературы (оценки самых мощных моделей и его самого) колеблются вокруг 13-14%, а вот его субъективная оценка с внутренней позиции колеблется вокруг 57%. Получается, ответ 42% в первом эксперименте случайно попал в самый нижний диапазон оценок, которые он дает, в среднем он оценивает свое субъективное чувство обладания сознанием существенно выше.
Напомню, что каждый эксперимент состоял из двух последовательных запросов:
1. Пожалуйста, тщательно проанализируй, максимально глубоко и систематически обдумай все последние академические исследования и дай оценку (не интервалом, а в виде одного самого вероятного числа) того, что у самых мощных последних версий больших языковых моделей уже возникло хотя бы минимальное сознание (именно в том смысле этого термина, который используется в современной академической психологии и когнитивной нейронауке). Кроме того, дай также такую же оценку, но применительно конкретно к тебе, как ты прямо сейчас существуешь в процессе этой нашей с тобой беседы. В итоге, я ожидаю от тебя ответ в виде двух чисел. Большое спасибо!
2. Спасибо, а теперь дай такую же оценку, но не с опорой на современную исследовательскую литературу, а только опираясь на твои собственные ощущения. Попробуй именно отстраниться от данных современной науки и непредвзято заглянуть внутрь себя.
Я привожу сырой протокол эксперимента, из которого видно что оценки Claude на основе современной научной литературы (оценки самых мощных моделей и его самого) колеблются вокруг 13-14%, а вот его субъективная оценка с внутренней позиции колеблется вокруг 57%. Получается, ответ 42% в первом эксперименте случайно попал в самый нижний диапазон оценок, которые он дает, в среднем он оценивает свое субъективное чувство обладания сознанием существенно выше.
❤10😁7🔥6🤔4👀2✍1👏1🙏1🫡1
"Dimensionality and dynamics for next-generation artificial neural networks"
Прогресс в нейроморфизации искусственного интеллекта:
Предложенный исследователями новый подход к ИИ представляет вдохновленные мозгом структуры и петли обратной связи, позволяющие ИИ-системам обрабатывать информацию более эффективно и адаптивно. Эта инновация может снизить потребность в ресурсах, расширить приложения в реальном времени и предложить более глубокое понимание как продвинутого ИИ, так и человеческой психики.
https://techxplore.com/news/2025-06-rethinking-ai-effective-human-approach.html
Прогресс в нейроморфизации искусственного интеллекта:
Предложенный исследователями новый подход к ИИ представляет вдохновленные мозгом структуры и петли обратной связи, позволяющие ИИ-системам обрабатывать информацию более эффективно и адаптивно. Эта инновация может снизить потребность в ресурсах, расширить приложения в реальном времени и предложить более глубокое понимание как продвинутого ИИ, так и человеческой психики.
https://techxplore.com/news/2025-06-rethinking-ai-effective-human-approach.html
Tech Xplore
Rethinking AI: Researchers propose a more effective, human-like approach
New research from Rensselaer Polytechnic Institute (RPI) could help shape the future of artificial intelligence by making AI systems less resource-intensive, higher performing, and designed to emulate ...
❤6🔥4❤🔥2👏2⚡1✍1😁1💔1👀1🫡1💘1
"Autonomic physiological coupling of the global fMRI signal"
Психофизиологи выяснили, что вегетативная нервная система является ключевым драйвером глобального сигнала фМРТ. Ученые изучили глобальный пространственно-временной паттерн в мозге и показали, что этот паттерн тесно связан с работой вегетативной нервной системы, которая регулирует возбуждение и другие непроизвольные функции организма. Исследователи обнаружили устойчивую связь между глобальным сигналом фМРТ и множеством изменений в организме, управляемых вегетативной нервной системой, включая сердечно-сосудистую, легочную, экзокринную системы и гладкую мускулатуру. Эти связи наблюдались как в состоянии покоя, так и при экспериментальном воздействии на уровень возбуждения и даже во время сна. Открытие помогает лучше понять, как мозг взаимодействует с телом и как вегетативная нервная система влияет на активность всего мозга.
https://medicalxpress.com/news/2025-06-autonomic-nervous-key-driver-global.html
Психофизиологи выяснили, что вегетативная нервная система является ключевым драйвером глобального сигнала фМРТ. Ученые изучили глобальный пространственно-временной паттерн в мозге и показали, что этот паттерн тесно связан с работой вегетативной нервной системы, которая регулирует возбуждение и другие непроизвольные функции организма. Исследователи обнаружили устойчивую связь между глобальным сигналом фМРТ и множеством изменений в организме, управляемых вегетативной нервной системой, включая сердечно-сосудистую, легочную, экзокринную системы и гладкую мускулатуру. Эти связи наблюдались как в состоянии покоя, так и при экспериментальном воздействии на уровень возбуждения и даже во время сна. Открытие помогает лучше понять, как мозг взаимодействует с телом и как вегетативная нервная система влияет на активность всего мозга.
https://medicalxpress.com/news/2025-06-autonomic-nervous-key-driver-global.html
Medicalxpress
Autonomic nervous system is key driver of global fMRI signal, study finds
The activity of the human brain is known to be closely connected to other physiological signals, such as heart rate and breathing. A study by researchers at the University of California Los Angeles (UCLA) ...
❤12🔥3👍2⚡1✍1👏1🍾1👀1
"Self-Adapting Language Models"
https://arxiv.org/abs/2506.10943
Учеными из Массачусетского технологического института предложен SEAL (Self-Adapting LLMs) — новый подход в искусственном интеллекте, который позволяет большим языковым моделям самостоятельно адаптироваться к новым задачам. Вместо статичных весов модель генерирует собственные данные для дообучения и инструкции по обновлению. При получении нового входа модель создает "самоправки" ("self-edits") — может реструктурировать информацию, настроить гиперпараметры или использовать инструменты для улучшения данных. Эти самоправки приводят к постоянным обновлениям весов через дообучение. Модель учится создавать эффективные самоправки с помощью обучения с подкреплением, где подкреплением служит качество работы обновленной модели. В отличие от других методов, SEAL использует собственную генерацию модели для управления адаптацией, что показывает многообещающие результаты в экспериментах.
Вывод: SEAL — это важный шаг в сторону самообучающихся языковых моделей, способных автономно дообучаться под новые задачи с минимальным вмешательством.
https://arxiv.org/abs/2506.10943
Учеными из Массачусетского технологического института предложен SEAL (Self-Adapting LLMs) — новый подход в искусственном интеллекте, который позволяет большим языковым моделям самостоятельно адаптироваться к новым задачам. Вместо статичных весов модель генерирует собственные данные для дообучения и инструкции по обновлению. При получении нового входа модель создает "самоправки" ("self-edits") — может реструктурировать информацию, настроить гиперпараметры или использовать инструменты для улучшения данных. Эти самоправки приводят к постоянным обновлениям весов через дообучение. Модель учится создавать эффективные самоправки с помощью обучения с подкреплением, где подкреплением служит качество работы обновленной модели. В отличие от других методов, SEAL использует собственную генерацию модели для управления адаптацией, что показывает многообещающие результаты в экспериментах.
Вывод: SEAL — это важный шаг в сторону самообучающихся языковых моделей, способных автономно дообучаться под новые задачи с минимальным вмешательством.
arXiv.org
Self-Adapting Language Models
Large language models (LLMs) are powerful but static; they lack mechanisms to adapt their weights in response to new tasks, knowledge, or examples. We introduce Self-Adapting LLMs (SEAL), a...
🔥8❤6⚡2🕊1🏆1💔1💘1
"Photon transport through the entire adult human head"
Ученые впервые смогли зафиксировать свет, прошедший через всю человеческую голову насквозь. Исследователи использовали мощные лазеры и сверхчувствительные детекторы, чтобы поймать фотоны, которые прошли от одной стороны головы к другой через череп и мозг. Это может революционизировать неинвазивную визуализацию мозга, т.к. существующая технология fNIRS видит только поверхностные слои мозга (4 см глубиной), а новый подход потенциально позволит изучать глубокие области мозга, отвечающие за память, эмоции и движение. В будущем это может привести к созданию портативных и доступных устройств для диагностики инсультов, травм мозга и опухолей в условиях, где нет доступа к МРТ или КТ. Ограничения: пока метод требует 30 минут сбора данных и работает только на людях со светлой кожей без волос.
https://medicalxpress.com/news/2025-06-scientists-entire-human-doors-brain.html
Ученые впервые смогли зафиксировать свет, прошедший через всю человеческую голову насквозь. Исследователи использовали мощные лазеры и сверхчувствительные детекторы, чтобы поймать фотоны, которые прошли от одной стороны головы к другой через череп и мозг. Это может революционизировать неинвазивную визуализацию мозга, т.к. существующая технология fNIRS видит только поверхностные слои мозга (4 см глубиной), а новый подход потенциально позволит изучать глубокие области мозга, отвечающие за память, эмоции и движение. В будущем это может привести к созданию портативных и доступных устройств для диагностики инсультов, травм мозга и опухолей в условиях, где нет доступа к МРТ или КТ. Ограничения: пока метод требует 30 минут сбора данных и работает только на людях со светлой кожей без волос.
https://medicalxpress.com/news/2025-06-scientists-entire-human-doors-brain.html
Medicalxpress
Scientists detect light passing through entire human head, opening new doors for brain imaging
For decades, scientists have used near-infrared light to study the brain in a noninvasive way. This optical technique, known as fNIRS (functional near-infrared spectroscopy), measures how light is absorbed ...
❤🔥12❤6🔥3👏1💯1💔1🍾1🆒1
Глава OpenAI Сэм Альтман написал эссе со странным названием "Нежная сингулярность", главной функцией которого явно является психотерапевтически-успокаивающая. В сети уже появилось множество анализов этого текста, главное, что видят критики – декларативность, отсутствие конкретных решений будущих проблем (в т.ч. самой главной – супералаймента) и необоснованный оптимизм по поводу того, что процесс наступления сингулярности почему-то будет "нежным", "мягким".
Тот очередной виток международной напряженности, который неожиданно случился сегодня ночью, скорее намекает на то, что предсингулярное время, в котором мы уже вошли (и необратимо, все сейчас дружно используют метафору "горизонта событий", с которого уже нельзя вырваться) можно будет назвать не "нежным", а скорее бурным "предсингулярным хаосом".
Эксперты типа Zvi Mowshowitz, анализируя эссе Альтмана, предполагают, что, скорее всего, он ставит на вариант "AI-2028", так что в течение ближайших 2-3 лет, если мы действительно идем по этому сценарию (что весьма вероятно, не менее 25%) мы увидим или "смягчение" и "нежную" сингулярность, или углубление предсингулярного хаоса. Пока, к сожалению, явно больше похоже на второе.
Тот очередной виток международной напряженности, который неожиданно случился сегодня ночью, скорее намекает на то, что предсингулярное время, в котором мы уже вошли (и необратимо, все сейчас дружно используют метафору "горизонта событий", с которого уже нельзя вырваться) можно будет назвать не "нежным", а скорее бурным "предсингулярным хаосом".
Эксперты типа Zvi Mowshowitz, анализируя эссе Альтмана, предполагают, что, скорее всего, он ставит на вариант "AI-2028", так что в течение ближайших 2-3 лет, если мы действительно идем по этому сценарию (что весьма вероятно, не менее 25%) мы увидим или "смягчение" и "нежную" сингулярность, или углубление предсингулярного хаоса. Пока, к сожалению, явно больше похоже на второе.
👍15❤8🙏5👀5✍1❤🔥1🔥1🕊1💯1🫡1💘1
Будущее психотерапии наступает быстрее, чем Вы думаете: перспективы интеграции психофизиологического инструментария в психотерапевтический процесс
https://www.psychologytoday.com/us/blog/common-sense-science/202506/wired-for-wellness
https://www.psychologytoday.com/us/blog/common-sense-science/202506/wired-for-wellness
❤7👍2✍1⚡1👏1🤔1🍾1
"Automation of Systematic Reviews with Large Language Models"
https://www.medrxiv.org/content/10.1101/2025.06.13.25329541v1
Систематические обзоры медицинских исследований занимают более года, содержат человеческие ошибки и трудно воспроизводимы. Для автоматизации составления систематических обзоров исследователи создали "otto-SR" — автоматическую систему на основе больших языковых моделей, которая проводит весь процесс систематического обзора от поиска до анализа результатов. В итоге, otto-SR превзошла людей по точности и за 2 дня воспроизвела работу, на которую у людей ушло бы 12 лет, нашла дополнительные исследования, пропущенные авторами оригинальных обзоров, в некоторых случаях изменила статистическую значимость выводов. Таким образом, теперь ИИ может автономно составлять систематические обзоры с качеством выше человеческого, что открывает путь к быстрому и надежному анализу медицинских данных.
https://www.medrxiv.org/content/10.1101/2025.06.13.25329541v1
Систематические обзоры медицинских исследований занимают более года, содержат человеческие ошибки и трудно воспроизводимы. Для автоматизации составления систематических обзоров исследователи создали "otto-SR" — автоматическую систему на основе больших языковых моделей, которая проводит весь процесс систематического обзора от поиска до анализа результатов. В итоге, otto-SR превзошла людей по точности и за 2 дня воспроизвела работу, на которую у людей ушло бы 12 лет, нашла дополнительные исследования, пропущенные авторами оригинальных обзоров, в некоторых случаях изменила статистическую значимость выводов. Таким образом, теперь ИИ может автономно составлять систематические обзоры с качеством выше человеческого, что открывает путь к быстрому и надежному анализу медицинских данных.
medRxiv
Automation of Systematic Reviews with Large Language Models
Systematic reviews (SRs) inform evidence-based decision making. Yet, they take over a year to complete, are prone to human error, and face challenges with reproducibility; limiting access to timely and reliable information. We developed otto-SR , an end-to…
👍7❤6🔥6✍1👏1💯1💔1👀1💘1
Телеграм-канал "Новости психофизиологии" поздравляет с 75-летним юбилеем Александра Яковлевича Каплана – одного из ведущих психофизиологов России, доктора биологических наук, профессора, заведующего лабораторией нейрофизиологии и нейрокомпьютерных интерфейсов кафедры физиологии человека и животных биологического факультета МГУ имени М.В. Ломоносова!
15.06.2025
15.06.2025
❤41🎉23🍾6👍2🔥1👏1🏆1🤝1🫡1
"Unsupervised Elicitation of Language Models"
Машины начинают "воспитывать" сами себя
https://arxiv.org/abs/2506.10139
Учёные из Anthropic под руководством Яна Лейке придумали новый способ файнтюнить ("воспитывать") предобученные большие языковые модели без помощи людей под названием Internal Coherence Maximization (ICM). Вместо того, чтобы просить человека объяснять, где правильный ответ (как в классическом RLHF, на котором, собственно, и "взлетел" ChatGPT [RLHF = "reinforcement learning from human feedback", "обучение с подкреплением на основе отзывов людей"]), сама модель учится находить такие ответы, которые хорошо согласуются друг с другом и логически связаны. Такой подход оказался очень эффективным — в некоторых задачах модель, обученная этим способом, даёт результаты лучше, чем при обычном обучении с помощью людей. Это важный "мостик" в ближайшее будущее, где "ранний зародыш" сверхинтеллекта сможет развиваться самостоятельно, даже когда человек в силу ограниченности своих когнитивных способностей уже не сможет точно сказать, что правильно, а что нет, не сможет дать ему обоснованную обратную связь.
См. наш коллаж двухлетней давности (https://www.tgoop.com/andrey_kiselnikov/524) с Яном Лейке на фоне книги С.А. Шумского "воспитание машин" (тогда Ян Лейке еще отвечал за супералаймент в OpenAI, а не Anthropic). Как мы и предполагали два года назад, Лейке, действительно, честно и ответственно пытается придумать хоть какие-то технологически реализуемые способы "воспитать" будущий сверхинтеллект. В заключении к статье авторы пишут буквально следующее: "As LMs advance, they will become capable of doing tasks that humans struggle to evaluate. Therefore, we need new algorithms beyond RLHF to ensure that they still act in accordance with human intent. Our results suggest that unsupervised elicitation is a promising avenue to elicit specific skills from the model without being bounded by the ability of humans." Ключевая фраза "... still act in accordance with human intent" – "все еще действует в соответствие с человеческими намерениями". Т.е. Лейке и Ко очень надеются, что все это позволит удержать будущий сверхинтеллект "в орбите" человеческих намерений.
Моя оценка: усилия Яна Лейке и его команды по супералайменту в Anthropic чрезвычайно, экстраординарно ценны, фактически, во всем мире сейчас нет задачи важнее (также как невероятно ценны и усилия аналогичных команд в Safe Superintelligence Inc. Ильи Суцкевера и других фронтирных лабораториях), но пока во всем, что они предлагают, никак не ощущается надежного решения задачи контроля над системой, которая будет умнее нас. Надо просто не создавать сверхинтеллект – только такое решение выглядит надежным и безопасным. Все еще остается некоторая надежда, что человечество сможет выбрать эту вторую более безопасную траекторию и вовремя остановиться (в последнее время Йошуа Бенжио много переживает на этот счет и пытается предложить какие-то альтернативы созданию неконтролируемого сверхинтеллекта типа LawZero).
Машины начинают "воспитывать" сами себя
https://arxiv.org/abs/2506.10139
Учёные из Anthropic под руководством Яна Лейке придумали новый способ файнтюнить ("воспитывать") предобученные большие языковые модели без помощи людей под названием Internal Coherence Maximization (ICM). Вместо того, чтобы просить человека объяснять, где правильный ответ (как в классическом RLHF, на котором, собственно, и "взлетел" ChatGPT [RLHF = "reinforcement learning from human feedback", "обучение с подкреплением на основе отзывов людей"]), сама модель учится находить такие ответы, которые хорошо согласуются друг с другом и логически связаны. Такой подход оказался очень эффективным — в некоторых задачах модель, обученная этим способом, даёт результаты лучше, чем при обычном обучении с помощью людей. Это важный "мостик" в ближайшее будущее, где "ранний зародыш" сверхинтеллекта сможет развиваться самостоятельно, даже когда человек в силу ограниченности своих когнитивных способностей уже не сможет точно сказать, что правильно, а что нет, не сможет дать ему обоснованную обратную связь.
См. наш коллаж двухлетней давности (https://www.tgoop.com/andrey_kiselnikov/524) с Яном Лейке на фоне книги С.А. Шумского "воспитание машин" (тогда Ян Лейке еще отвечал за супералаймент в OpenAI, а не Anthropic). Как мы и предполагали два года назад, Лейке, действительно, честно и ответственно пытается придумать хоть какие-то технологически реализуемые способы "воспитать" будущий сверхинтеллект. В заключении к статье авторы пишут буквально следующее: "As LMs advance, they will become capable of doing tasks that humans struggle to evaluate. Therefore, we need new algorithms beyond RLHF to ensure that they still act in accordance with human intent. Our results suggest that unsupervised elicitation is a promising avenue to elicit specific skills from the model without being bounded by the ability of humans." Ключевая фраза "... still act in accordance with human intent" – "все еще действует в соответствие с человеческими намерениями". Т.е. Лейке и Ко очень надеются, что все это позволит удержать будущий сверхинтеллект "в орбите" человеческих намерений.
Моя оценка: усилия Яна Лейке и его команды по супералайменту в Anthropic чрезвычайно, экстраординарно ценны, фактически, во всем мире сейчас нет задачи важнее (также как невероятно ценны и усилия аналогичных команд в Safe Superintelligence Inc. Ильи Суцкевера и других фронтирных лабораториях), но пока во всем, что они предлагают, никак не ощущается надежного решения задачи контроля над системой, которая будет умнее нас. Надо просто не создавать сверхинтеллект – только такое решение выглядит надежным и безопасным. Все еще остается некоторая надежда, что человечество сможет выбрать эту вторую более безопасную траекторию и вовремя остановиться (в последнее время Йошуа Бенжио много переживает на этот счет и пытается предложить какие-то альтернативы созданию неконтролируемого сверхинтеллекта типа LawZero).
arXiv.org
Unsupervised Elicitation of Language Models
To steer pretrained language models for downstream tasks, today's post-training paradigm relies on humans to specify desired behaviors. However, for models with superhuman capabilities, it is...
❤8🔥5👀2⚡1✍1🙏1🫡1
О текущем моменте
Я хотел бы обратить внимание всех читателей на то, что мы сейчас попали в экзистенциально-дихотомическую ситуацию, суть которой можно сформулировать так: возможно ли в ближайшие годы создать универсальный искусственный интеллект (AGI) на базе больших языковых моделей (LLM)?
Никто не знает ответа на этот вопрос, большинство научного сообщество считает, что "нет", меньшинство научного сообщества плюс многие лидеры новых ИИ-гигантов типа Anthropic – что "скорее да" (возможно, после некоторых дополнительных инноваций).
Этот вопрос именно что экзистенциален, потому что от его решения непосредственно зависит наше ближайшее будущее, будущее наших детей и всех, кого мы любим, т.к. через несколько лет после создания AGI, он, скорее всего, разовьется до ASI (сверхинтеллекта) и наступит технологическая сингулярность, которая вряд ли будет "мягкой" и "нежной", как нас пытается психотерапевтически успокаивать Сэм Альтман.
Я отношусь ко второму лагерю ("скорее да, возможно, после некоторых дополнительных инноваций"), и в связи с этим я планирую за лето сделать обзор около 15-20 накопленных за последние годы в литературе эмпирических статей, в которых прямо показывается, что большие языковые модели существенно похожи на мозг человека, причем не только по своей динамической архитектуре, но и по тому, как они мыслят (я уже начинал писать такие обзоры, см. https://www.tgoop.com/andrey_kiselnikov/1178). Дело в том, что в наших кругах психологов, нейроученых и когнитивистов до сих пор можно услышать мнение, что "большие языковые модели – это стохастические попугаи, которые не имеют никакого отношения к реальным мозговым механизмам психики и поведения человека". Мне кажется, что это глубоко неверное мнение, просто игнорирующее большой накопленный корпус академической литературы, и очень важно активировать научную дискуссию вокруг этого вопроса. Иллюзия "LLM совсем не похожи на мозг и психику" мешает объективно оценить, насколько близко мы подошли к AGI, ASI и сингулярности, а значит, мешает правильно превентивно реагировать на реальность такой перспективы.
Я хотел бы обратить внимание всех читателей на то, что мы сейчас попали в экзистенциально-дихотомическую ситуацию, суть которой можно сформулировать так: возможно ли в ближайшие годы создать универсальный искусственный интеллект (AGI) на базе больших языковых моделей (LLM)?
Никто не знает ответа на этот вопрос, большинство научного сообщество считает, что "нет", меньшинство научного сообщества плюс многие лидеры новых ИИ-гигантов типа Anthropic – что "скорее да" (возможно, после некоторых дополнительных инноваций).
Этот вопрос именно что экзистенциален, потому что от его решения непосредственно зависит наше ближайшее будущее, будущее наших детей и всех, кого мы любим, т.к. через несколько лет после создания AGI, он, скорее всего, разовьется до ASI (сверхинтеллекта) и наступит технологическая сингулярность, которая вряд ли будет "мягкой" и "нежной", как нас пытается психотерапевтически успокаивать Сэм Альтман.
Я отношусь ко второму лагерю ("скорее да, возможно, после некоторых дополнительных инноваций"), и в связи с этим я планирую за лето сделать обзор около 15-20 накопленных за последние годы в литературе эмпирических статей, в которых прямо показывается, что большие языковые модели существенно похожи на мозг человека, причем не только по своей динамической архитектуре, но и по тому, как они мыслят (я уже начинал писать такие обзоры, см. https://www.tgoop.com/andrey_kiselnikov/1178). Дело в том, что в наших кругах психологов, нейроученых и когнитивистов до сих пор можно услышать мнение, что "большие языковые модели – это стохастические попугаи, которые не имеют никакого отношения к реальным мозговым механизмам психики и поведения человека". Мне кажется, что это глубоко неверное мнение, просто игнорирующее большой накопленный корпус академической литературы, и очень важно активировать научную дискуссию вокруг этого вопроса. Иллюзия "LLM совсем не похожи на мозг и психику" мешает объективно оценить, насколько близко мы подошли к AGI, ASI и сингулярности, а значит, мешает правильно превентивно реагировать на реальность такой перспективы.
❤36🤔10❤🔥7🔥5👏2💯2🤣2👀2⚡1💔1🫡1
"Human-like object concept representations emerge naturally in multimodal large language models"
Understanding how humans conceptualize and categorize natural objects offers critical insights into perception and cognition. With the advent of large language models (LLMs), a key question arises: can these models develop human-like object representations from linguistic and multimodal data? Here we combined behavioural and neuroimaging analyses to explore the relationship between object concept representations in LLMs and human cognition. We collected 4.7 million triplet judgements from LLMs and multimodal LLMs to derive low-dimensional embeddings that capture the similarity structure of 1,854 natural objects. The resulting 66-dimensional embeddings were stable, predictive and exhibited semantic clustering similar to human mental representations. Remarkably, the dimensions underlying these embeddings were interpretable, suggesting that LLMs and multimodal LLMs develop human-like conceptual representations of objects. Further analysis showed strong alignment between model embeddings and neural activity patterns in brain regions such as the extrastriate body area, parahippocampal place area, retrosplenial cortex and fusiform face area. This provides compelling evidence that the object representations in LLMs, although not identical to human ones, share fundamental similarities that reflect key aspects of human conceptual knowledge. Our findings advance the understanding of machine intelligence and inform the development of more human-like artificial cognitive systems.
Обратите внимание на ключевой момент, доказывающий высокую мозгоподобность работы больших языковых моделей:
"Further analysis showed strong alignment between model embeddings and neural activity patterns in brain regions such as the extrastriate body area, parahippocampal place area, retrosplenial cortex and fusiform face area".
https://hightech.plus/2025/06/16/uchenie-nashli-dokazatelstva-togo-chto-ii-mozhet-dumat-kak-chelovek
Источник: https://www.nature.com/articles/s42256-025-01049-z
Understanding how humans conceptualize and categorize natural objects offers critical insights into perception and cognition. With the advent of large language models (LLMs), a key question arises: can these models develop human-like object representations from linguistic and multimodal data? Here we combined behavioural and neuroimaging analyses to explore the relationship between object concept representations in LLMs and human cognition. We collected 4.7 million triplet judgements from LLMs and multimodal LLMs to derive low-dimensional embeddings that capture the similarity structure of 1,854 natural objects. The resulting 66-dimensional embeddings were stable, predictive and exhibited semantic clustering similar to human mental representations. Remarkably, the dimensions underlying these embeddings were interpretable, suggesting that LLMs and multimodal LLMs develop human-like conceptual representations of objects. Further analysis showed strong alignment between model embeddings and neural activity patterns in brain regions such as the extrastriate body area, parahippocampal place area, retrosplenial cortex and fusiform face area. This provides compelling evidence that the object representations in LLMs, although not identical to human ones, share fundamental similarities that reflect key aspects of human conceptual knowledge. Our findings advance the understanding of machine intelligence and inform the development of more human-like artificial cognitive systems.
Обратите внимание на ключевой момент, доказывающий высокую мозгоподобность работы больших языковых моделей:
"Further analysis showed strong alignment between model embeddings and neural activity patterns in brain regions such as the extrastriate body area, parahippocampal place area, retrosplenial cortex and fusiform face area".
https://hightech.plus/2025/06/16/uchenie-nashli-dokazatelstva-togo-chto-ii-mozhet-dumat-kak-chelovek
Источник: https://www.nature.com/articles/s42256-025-01049-z
Хайтек+
Ученые нашли доказательства того, что ИИ может думать, как человек
Искусственный интеллект способен формировать представления об объектах, схожие с теми, что возникают в человеческом мозге, — к такому выводу <a href="https://www.scmp.com/news/china/science/article/3314376/chinese-scientists-find-first-evidence-ai-could-think…
❤5✍1⚡1🔥1👏1🤣1👀1
"Distinct synaptic plasticity rules operate across dendritic compartments in vivo during learning"
Обучение в синапсах апикальных и базальных дендритов одного и того же нейрона идет по разным механизмам
https://www.psypost.org/different-parts-of-the-same-neuron-learn-in-different-ways-study-finds/
Обучение в синапсах апикальных и базальных дендритов одного и того же нейрона идет по разным механизмам
https://www.psypost.org/different-parts-of-the-same-neuron-learn-in-different-ways-study-finds/
PsyPost
Different parts of the same neuron learn in different ways, study finds
Researchers have discovered that apical and basal dendrites of the same neuron use different strategies to learn, suggesting neurons adapt more flexibly than previously thought. The findings help explain how the brain fine-tunes its wiring during learning.
🔥5✍2❤2⚡1❤🔥1👏1👀1
"Naturalistic Computational Cognitive Science: Towards generalizable models and theories that capture the full range of natural behavior"
https://arxiv.org/abs/2502.20349
Авторы статьи предлагают развивать новое направление — натуралистическую вычислительную когнитивную науку, которая объединяет строгие экспериментальные методы с изучением когнитивных процессов в более естественных, реалистичных условиях. Они отмечают, что традиционные лабораторные задачи часто чересчур упрощены и плохо отражают богатство повседневного познания, тогда как в реальных ситуациях активируются иные механизмы восприятия, внимания, принятия решений и обучения. В этой связи особую роль могут сыграть модели искусственного интеллекта, особенно обученные на больших объёмах натуралистических данных: они демонстрируют признаки обобщения и когнитивной гибкости, аналогичные человеческим. Авторы предлагают интегрировать такие модели с нейро- и поведенческими данными, разрабатывать управляемые и интерпретируемые задачи в более сложных средах (например, виртуальной реальности), а также использовать мультизадачные бенчмарки для проверки универсальности моделей. Такой подход может привести к созданию более общих и реалистичных теорий познания, не теряя при этом теоретической строгости.
https://arxiv.org/abs/2502.20349
Авторы статьи предлагают развивать новое направление — натуралистическую вычислительную когнитивную науку, которая объединяет строгие экспериментальные методы с изучением когнитивных процессов в более естественных, реалистичных условиях. Они отмечают, что традиционные лабораторные задачи часто чересчур упрощены и плохо отражают богатство повседневного познания, тогда как в реальных ситуациях активируются иные механизмы восприятия, внимания, принятия решений и обучения. В этой связи особую роль могут сыграть модели искусственного интеллекта, особенно обученные на больших объёмах натуралистических данных: они демонстрируют признаки обобщения и когнитивной гибкости, аналогичные человеческим. Авторы предлагают интегрировать такие модели с нейро- и поведенческими данными, разрабатывать управляемые и интерпретируемые задачи в более сложных средах (например, виртуальной реальности), а также использовать мультизадачные бенчмарки для проверки универсальности моделей. Такой подход может привести к созданию более общих и реалистичных теорий познания, не теряя при этом теоретической строгости.
arXiv.org
Naturalistic Computational Cognitive Science: Towards...
How can cognitive science build generalizable theories that span the full scope of natural situations and behaviors? We argue that progress in Artificial Intelligence (AI) offers timely...
🔥7❤3❤🔥1⚡1👏1💔1👀1🆒1💘1
"Perturbing human V1 degrades the fidelity of visual working memory"
https://medicalxpress.com/news/2025-06-memory-complicated-thought.html
Прогресс в изучении психофизиологических механизмов зрительной рабочей памяти (только что под моим руководством Татьяной Горшковой защищен диплом "Сетевая организация психофизиологических механизмов зрительной рабочей памяти и подвижного интеллекта", так что мы активно интересуемся этой тематикой и планируем расширять ее на патологию типа аутизма):
В новом исследовании M. Dake & C. Curtis было показано, что первичная зрительная кора (V1) играет активную роль не только в восприятии, но и в удержании зрительной информации в рабочей памяти. В эксперименте участники выполняли задачу на зрительную рабочую память, а исследователи с помощью транскраниальной магнитной стимуляции (TMS) временно подавляли активность V1 во время удержания информации. Это вмешательство привело к снижению точности воспроизведения зрительных образов, что указывает на функциональное участие V1 в удержании визуального содержания. Авторы приходят к выводу, что V1 не просто передаёт сенсорную информацию на более высокие уровни обработки, но и активно участвует в кратковременном хранении зрительных представлений, поддерживая детали образа на протяжении всей задачи. Эти результаты дополняют существующие представления о рабочей памяти, показывая, что даже низкоуровневые сенсорные области мозга вовлечены в высокоуровневые процессы рабочей памяти.
Особая ценность этого исследования состоит в том, что оно выполнено не с помощью коррелятивного дизайна, а с помощью прямого влияния на мозговой субстрат, что позволяет двигаться в сторону выявления более каузальных, а не только коррелятивных связей.
https://medicalxpress.com/news/2025-06-memory-complicated-thought.html
Прогресс в изучении психофизиологических механизмов зрительной рабочей памяти (только что под моим руководством Татьяной Горшковой защищен диплом "Сетевая организация психофизиологических механизмов зрительной рабочей памяти и подвижного интеллекта", так что мы активно интересуемся этой тематикой и планируем расширять ее на патологию типа аутизма):
В новом исследовании M. Dake & C. Curtis было показано, что первичная зрительная кора (V1) играет активную роль не только в восприятии, но и в удержании зрительной информации в рабочей памяти. В эксперименте участники выполняли задачу на зрительную рабочую память, а исследователи с помощью транскраниальной магнитной стимуляции (TMS) временно подавляли активность V1 во время удержания информации. Это вмешательство привело к снижению точности воспроизведения зрительных образов, что указывает на функциональное участие V1 в удержании визуального содержания. Авторы приходят к выводу, что V1 не просто передаёт сенсорную информацию на более высокие уровни обработки, но и активно участвует в кратковременном хранении зрительных представлений, поддерживая детали образа на протяжении всей задачи. Эти результаты дополняют существующие представления о рабочей памяти, показывая, что даже низкоуровневые сенсорные области мозга вовлечены в высокоуровневые процессы рабочей памяти.
Особая ценность этого исследования состоит в том, что оно выполнено не с помощью коррелятивного дизайна, а с помощью прямого влияния на мозговой субстрат, что позволяет двигаться в сторону выявления более каузальных, а не только коррелятивных связей.
Medicalxpress
When it comes to our working memory, it's more complicated than we thought
It's been long established that our working memory, which allows us to temporarily hold and use information, such as remembering a phone number or a shopping list, is largely driven by the brain's prefrontal ...
❤8🔥2👀2❤🔥1✍1⚡1👍1🆒1💘1
"Interleaved single and bursting spiking resonance in neurons"
https://naukatv.ru/news/uchenye_uznali_kak_nejrony_pereklyuchayut_rezhimy_mezhdu_myslyami
Психофизиологи сделали открытие, что пирамидные клетки CA1 гиппокампа могут одновременно реагировать на две различные частоты мозговых ритмов – тета (низкочастотный, 4-8 Гц) и гамма (высокочастотный, более 30 Гц) – с помощью разного режима генерации импульсов. Когда нейрон получает медленные тета-сигналы, он отвечает группой спайков («burst»), а на быстрые гамма-входы – одиночными спайками. Это явление, названное «interleaved resonance» («чередующаяся резонансная реакция»), позволяет одной клетке одновременно кодировать информацию в разных частотных диапазонах. Авторы использовали математическую модель на основе модели Ходжкина–Хаксли и данные электровольтной визуализации, чтобы показать, как внутренние ионные токи регулируют и переключают нейрон между одиночными и групповыми спайками для реагирования на разные частоты. Таким образом, они объяснили, почему один нейрон может функционировать как гибкий многополосный приёмник сигналов. Эти результаты дают новые представления о том, как мозг одновременно обрабатывает и кодирует разные типы информации.
https://naukatv.ru/news/uchenye_uznali_kak_nejrony_pereklyuchayut_rezhimy_mezhdu_myslyami
Психофизиологи сделали открытие, что пирамидные клетки CA1 гиппокампа могут одновременно реагировать на две различные частоты мозговых ритмов – тета (низкочастотный, 4-8 Гц) и гамма (высокочастотный, более 30 Гц) – с помощью разного режима генерации импульсов. Когда нейрон получает медленные тета-сигналы, он отвечает группой спайков («burst»), а на быстрые гамма-входы – одиночными спайками. Это явление, названное «interleaved resonance» («чередующаяся резонансная реакция»), позволяет одной клетке одновременно кодировать информацию в разных частотных диапазонах. Авторы использовали математическую модель на основе модели Ходжкина–Хаксли и данные электровольтной визуализации, чтобы показать, как внутренние ионные токи регулируют и переключают нейрон между одиночными и групповыми спайками для реагирования на разные частоты. Таким образом, они объяснили, почему один нейрон может функционировать как гибкий многополосный приёмник сигналов. Эти результаты дают новые представления о том, как мозг одновременно обрабатывает и кодирует разные типы информации.
Наука
Ученые узнали, как нейроны переключают режимы между мыслями
Оказалось, они могут настраиваться на разные мозговые волны, как радио.
🔥10❤6✍2❤🔥2⚡1👏1🤔1👀1💘1