В комментариях к предыдущему посту многие не согласились с тем, что Дин Лижэнь испытывал радость. И увидели там просто усталость от напряжения.
Согласен, что я зря приписал радость – это как раз против подхода Фельдман-Баррет, суть которого я хотел проиллюстрировать.
Согласен также, что это может быть усталость. Хотя у Непомнящего усталость в глаза не бросается. Ну и футболисты после победной серии пенальти после 120 минут игры вполне себе бегают как угорелые. Исходя из контекста, я предположил, что Дин испытывал какое-то очень положительное переживание. На послематчевой пресс-конференции он говорит, что момент, когда Непомнящий сдался, был очень эмоциональным.
Мой поинт был в том, что это хороший пример того, что по поведению и даже по лицевой экспрессии невозможно сказать, какую эмоцию испытывает человек. В этом критика классического подхода с базовыми эмоциями, который стоит на данных о том, как людям в разных культурах предъявляют изображение “эмоциональных” лиц, и при необходимости выбрать из списка эмоцию, которая это лицо описывает, испытуемые выбирают их довольно согласовано. Пример шахматиста показывает, как в реальной жизни ожидаемое выражение эмоций может не происходить.
Кстати, посмотрите, как выглядел Ли Седоль, один из сильнейших игроков в Го, когда проиграл в 2016 году программе Alpha Go.
Ну и раз пошла такая пьянка – вот как компьютеру проиграл приснопамятный Гарри Каспаров – в 1997 г.
Пока смотрел эти видео пришла в голову забавная идея. Классические исследования мышления в психологии делались на шахматистах – на разборе того, как они принимают решения. Можно было бы на них же изучать проявление сильных эмоций – по тому, как они реагируют на те или иные события в игре. Очень даже экологичненько.
P.S. Скидывайте в комментарии ваши любимые видео с эмоциями после победы или поражения
Согласен, что я зря приписал радость – это как раз против подхода Фельдман-Баррет, суть которого я хотел проиллюстрировать.
Согласен также, что это может быть усталость. Хотя у Непомнящего усталость в глаза не бросается. Ну и футболисты после победной серии пенальти после 120 минут игры вполне себе бегают как угорелые. Исходя из контекста, я предположил, что Дин испытывал какое-то очень положительное переживание. На послематчевой пресс-конференции он говорит, что момент, когда Непомнящий сдался, был очень эмоциональным.
Мой поинт был в том, что это хороший пример того, что по поведению и даже по лицевой экспрессии невозможно сказать, какую эмоцию испытывает человек. В этом критика классического подхода с базовыми эмоциями, который стоит на данных о том, как людям в разных культурах предъявляют изображение “эмоциональных” лиц, и при необходимости выбрать из списка эмоцию, которая это лицо описывает, испытуемые выбирают их довольно согласовано. Пример шахматиста показывает, как в реальной жизни ожидаемое выражение эмоций может не происходить.
Кстати, посмотрите, как выглядел Ли Седоль, один из сильнейших игроков в Го, когда проиграл в 2016 году программе Alpha Go.
Ну и раз пошла такая пьянка – вот как компьютеру проиграл приснопамятный Гарри Каспаров – в 1997 г.
Пока смотрел эти видео пришла в голову забавная идея. Классические исследования мышления в психологии делались на шахматистах – на разборе того, как они принимают решения. Можно было бы на них же изучать проявление сильных эмоций – по тому, как они реагируют на те или иные события в игре. Очень даже экологичненько.
P.S. Скидывайте в комментарии ваши любимые видео с эмоциями после победы или поражения
Чизек об LLM.pdf
89.3 KB
Могут ли большие языковые модели мыслить?
Вчера мне попала в руки переписка Пола Чисека (очень интересного исследователя, о котором я раньше писал) и Джеффри Хинтона (патриарха диплёрнинга) о мышлении в больших языковых моделях. Переписка из коннекционистской имейл-рассылки Университета Карнеги-Меллона.
Как же приятно было читать текст Чисека! Потому что такой уважаемый мной теоретик оценивает LLM примерно так же, как и я (см. недавний пост в канале). Совпадение, конечно, не случайное: я Чисека читал и слушал.
Его посыл в том, что мозг не просто система обработки информации, а это система, которая реализует свои цели во взаимодействии с окружающим миром. И именно в контексте этих целей информация обретает смысл. Он даже упоминает обучение с подкреплением – о чём я несколько дней назад писал. Модели, обученные продолжать последовательности, не будут обладать смыслом ни в какой форме – потому что после обучения у них нет никаких целей во взаимодействии с миром.
Отличный текст, очень рекомендую!
https://mailman.srv.cs.cmu.edu/pipermail/connectionists/2023-March/039580.html
———
Так как идея переводов околонаучных текстов нашла отклик у почти 100 подписчиков, я сделал перевод письма Чисека – для тех, кому читать по-русски намного легче, чем по-английски. Это машинный перевод с моими исправлениями. Если вы прочитали перевод, а не оригинальный текст - ставьте единорога к этому посту. Я всё ещё не уверен, что такая деятельность осмысленна :)
Вчера мне попала в руки переписка Пола Чисека (очень интересного исследователя, о котором я раньше писал) и Джеффри Хинтона (патриарха диплёрнинга) о мышлении в больших языковых моделях. Переписка из коннекционистской имейл-рассылки Университета Карнеги-Меллона.
Как же приятно было читать текст Чисека! Потому что такой уважаемый мной теоретик оценивает LLM примерно так же, как и я (см. недавний пост в канале). Совпадение, конечно, не случайное: я Чисека читал и слушал.
Его посыл в том, что мозг не просто система обработки информации, а это система, которая реализует свои цели во взаимодействии с окружающим миром. И именно в контексте этих целей информация обретает смысл. Он даже упоминает обучение с подкреплением – о чём я несколько дней назад писал. Модели, обученные продолжать последовательности, не будут обладать смыслом ни в какой форме – потому что после обучения у них нет никаких целей во взаимодействии с миром.
Отличный текст, очень рекомендую!
https://mailman.srv.cs.cmu.edu/pipermail/connectionists/2023-March/039580.html
———
Так как идея переводов околонаучных текстов нашла отклик у почти 100 подписчиков, я сделал перевод письма Чисека – для тех, кому читать по-русски намного легче, чем по-английски. Это машинный перевод с моими исправлениями. Если вы прочитали перевод, а не оригинальный текст - ставьте единорога к этому посту. Я всё ещё не уверен, что такая деятельность осмысленна :)
Очень-очень плохая идея
- развивать сознание у роботов.
Неожиданный текст от Анила Сета.
Я писал, что в его теории сознание - атрибут живого существа. Из плоти и крови - как он сам всё время говорит. Ещё одна идея, которую он продвигает: перпендикулярность интеллекта и сознания. У животных, мол, они связаны, но у очень умной машины сознание совершенно не обязано появиться. И в свете этого он вдруг неожиданно присоединяется к AI-думерам, которые предупреждают об экзистенциальных опасностях быстрого развития искусственного интеллекта.
Сам пишет: я думаю, что сильный искусственный интеллект ещё далеко, и моя теория сознание у машин не допускает, но А ВДРУГ?? И если такая вероятность есть, то это плохо и опасно. Во-первых, опасно для выживания человечества. Во-вторых, породив сознательную сущность, мы неизбежно породим новые виды страданий - о которых сами и не догадываемся.
Certainly, nobody should be actively trying to create machine consciousness
– пишет Сет (замечу у скобках, что лично для меня это всегда было самой захватывающей идеей).
Мне показался этот текст нелогичным, и я это списываю на отказ обсуждать от сложную проблему сознания - о чём я писал в обзоре на книгу Сета. Отказываясь обсуждать центральный вопрос о природе сознания, мы вынуждены опираться на аргументы в духе "ну а вдруг?".
Но есть и интересные мысли. Даже если ИИ будет просто успешно имитировать наличие сознания, чувств и личности - люди будут в это верить и по-другому взаимодействовать с ИИ: больше ему доверять и неадекватно оценивать его возможности:
If we feel a machine truly believes what it says, we might be more inclined to take its views more seriously. If we expect an AI system to behave as a conscious human would—according to its apparent goals, desires, and beliefs—we may catastrophically fail to predict what it might do.
Ну и в конце мне понравилась метафора ИИ как оракула:
Perhaps future AI systems could be more like oracles, as the AI expert Yoshua Bengio has suggested: systems that help us understand the world and answer our questions as truthfully as possible, without having goals—or selves—of their own.
- развивать сознание у роботов.
Неожиданный текст от Анила Сета.
Я писал, что в его теории сознание - атрибут живого существа. Из плоти и крови - как он сам всё время говорит. Ещё одна идея, которую он продвигает: перпендикулярность интеллекта и сознания. У животных, мол, они связаны, но у очень умной машины сознание совершенно не обязано появиться. И в свете этого он вдруг неожиданно присоединяется к AI-думерам, которые предупреждают об экзистенциальных опасностях быстрого развития искусственного интеллекта.
Сам пишет: я думаю, что сильный искусственный интеллект ещё далеко, и моя теория сознание у машин не допускает, но А ВДРУГ?? И если такая вероятность есть, то это плохо и опасно. Во-первых, опасно для выживания человечества. Во-вторых, породив сознательную сущность, мы неизбежно породим новые виды страданий - о которых сами и не догадываемся.
Certainly, nobody should be actively trying to create machine consciousness
– пишет Сет (замечу у скобках, что лично для меня это всегда было самой захватывающей идеей).
Мне показался этот текст нелогичным, и я это списываю на отказ обсуждать от сложную проблему сознания - о чём я писал в обзоре на книгу Сета. Отказываясь обсуждать центральный вопрос о природе сознания, мы вынуждены опираться на аргументы в духе "ну а вдруг?".
Но есть и интересные мысли. Даже если ИИ будет просто успешно имитировать наличие сознания, чувств и личности - люди будут в это верить и по-другому взаимодействовать с ИИ: больше ему доверять и неадекватно оценивать его возможности:
If we feel a machine truly believes what it says, we might be more inclined to take its views more seriously. If we expect an AI system to behave as a conscious human would—according to its apparent goals, desires, and beliefs—we may catastrophically fail to predict what it might do.
Ну и в конце мне понравилась метафора ИИ как оракула:
Perhaps future AI systems could be more like oracles, as the AI expert Yoshua Bengio has suggested: systems that help us understand the world and answer our questions as truthfully as possible, without having goals—or selves—of their own.
https://nautil.us/why-conscious-ai-is-a-bad-bad-idea-302937/Nautilus
Why Conscious AI Is a Bad, Bad Idea
Our minds haven’t evolved to deal with machines we believe have consciousness.
Любопытное видео: ТВЧ (Татьяна Владимировна Черниговская) в научпоп фильме 1982 года (40 лет назад!).
https://www.instagram.com/reel/CrNtzVUA-U4/?igshid=MDJmNzVkMjY=
https://www.instagram.com/reel/CrNtzVUA-U4/?igshid=MDJmNzVkMjY=
Plant sentience
Статья, призывающая начать всерьёз рассматривать вопрос сознания или ощущения у растений.
Сначала рассматриваются когнитивные возможности растений: принятие решений, память, обучение, оценка рисков и т.д. На мой взгляд кое-что притянуто за уши, но в целом обзор интересный.
Затем рассматривается вопрос о том, можем ли мы говорить о “нейробиологии” в организмов, у которых нет нейронов. Авторы говорят: а почему нет? Передача сигналов есть, химия этих сигналов сходна с нашими нейромедиаторами, функционал такой же. От этого авторы плавно переходят к сознанию:
plants lack none of the functional structures that are supposedly needed [to be sentient]
- цитируют они других авторов.
По сути, сознание (или – способность ощущать) приписывается по совокупности признаков: что-то типа нервной системы есть, когнитивные процессы есть – должно быть и сознание. Не слишком убедительно, но интересно.
Статья, призывающая начать всерьёз рассматривать вопрос сознания или ощущения у растений.
Сначала рассматриваются когнитивные возможности растений: принятие решений, память, обучение, оценка рисков и т.д. На мой взгляд кое-что притянуто за уши, но в целом обзор интересный.
Затем рассматривается вопрос о том, можем ли мы говорить о “нейробиологии” в организмов, у которых нет нейронов. Авторы говорят: а почему нет? Передача сигналов есть, химия этих сигналов сходна с нашими нейромедиаторами, функционал такой же. От этого авторы плавно переходят к сознанию:
plants lack none of the functional structures that are supposedly needed [to be sentient]
- цитируют они других авторов.
По сути, сознание (или – способность ощущать) приписывается по совокупности признаков: что-то типа нервной системы есть, когнитивные процессы есть – должно быть и сознание. Не слишком убедительно, но интересно.
WBI Studies Repository
Plant sentience? Between romanticism and denial: Science
A growing number of non-human animal species are being seriously considered as candidates for sentience, but plants are either forgotten or explicitly excluded from these debates. In our view, this is based on the belief that plant behavior is hardwired and…
Дебаты о теориях сознания
Дебаты представителей разных научных теорий сознания на прошлогодней конференции ASSC 2022. Я на той конференции не был, поэтому посмотрел спустя почти год двухчасовое видео на ютубе.
Выступали:
- Стивен Флеминг - как представитель теорий иерархических репрезентаций (Higher order thought, HOT)
- Виктор Ламме - как представитель теорий рекуррентной активации (recurrent processing)
- Стэн Деан - как представитель теории глобального рабочего пространства (Global workspace theory, GWT)
- Мелани Боли – как представитель теории интеграции информации (Information integration theory, IIT)
Модерировали:
- Лиад Мудрик (см. её лекцию о теориях сознания)
- Лучия Меллони
Дебаты были дружеские, но довольно серьёзные, местами колкие.
Кажется, что Ламме и Боли понимают друг друга лучше, чем представителей HOT и GWT – потому что фокусируются на феноменальном опыте как главном аспекте сознания, который требует объяснения. То есть пытаются ответить на вопрос: что происходит в мозге в момент, когда мы ясно видим что-то перед собой, то есть отражаем это в сознании. В то же время, Флеминг и Деан больше сфокусированы на функциональной роли сознания: что сознание позволяет нам делать такого, чего не позволяет делать неосознаваемая обработка информации. Ламме говорит, что это не про сознание, а про внимание и высшие когнитивные процессы.
Дебаты ожидаемо ни к чему не пришли. Все остались примерно при своём, хотя какие-то интересные вопросы и идеи прозвучали.
https://youtu.be/INSxzlE0RsI
Дебаты представителей разных научных теорий сознания на прошлогодней конференции ASSC 2022. Я на той конференции не был, поэтому посмотрел спустя почти год двухчасовое видео на ютубе.
Выступали:
- Стивен Флеминг - как представитель теорий иерархических репрезентаций (Higher order thought, HOT)
- Виктор Ламме - как представитель теорий рекуррентной активации (recurrent processing)
- Стэн Деан - как представитель теории глобального рабочего пространства (Global workspace theory, GWT)
- Мелани Боли – как представитель теории интеграции информации (Information integration theory, IIT)
Модерировали:
- Лиад Мудрик (см. её лекцию о теориях сознания)
- Лучия Меллони
Дебаты были дружеские, но довольно серьёзные, местами колкие.
Кажется, что Ламме и Боли понимают друг друга лучше, чем представителей HOT и GWT – потому что фокусируются на феноменальном опыте как главном аспекте сознания, который требует объяснения. То есть пытаются ответить на вопрос: что происходит в мозге в момент, когда мы ясно видим что-то перед собой, то есть отражаем это в сознании. В то же время, Флеминг и Деан больше сфокусированы на функциональной роли сознания: что сознание позволяет нам делать такого, чего не позволяет делать неосознаваемая обработка информации. Ламме говорит, что это не про сознание, а про внимание и высшие когнитивные процессы.
Дебаты ожидаемо ни к чему не пришли. Все остались примерно при своём, хотя какие-то интересные вопросы и идеи прозвучали.
https://youtu.be/INSxzlE0RsI
YouTube
The Great Consciousness Debate at ASSC 25 in Amsterdam
During ‘The Great Consciousness Debate’ at the 25th meeting of the Association for the Scientific Study of Consciousness (ASSC) in Amsterdam, proponents of 4 theories of consciousness took center stage to discuss the ins-and-outs of their theories:
- Steve…
- Steve…
Великие тоже ошибаются
Джофри Хинтон сейчас много говорит и пишет про опасности развития ИИ. Даже уволился из Гугла, чтобы, мол, свободно говорить на эту тему.
При этом у Хинтона огромный авторитет, и ему многие доверяют. Он работал на заре нейросетей в целом и глубокого обучения в частности + он ученый-когнитивист, то есть разбирается в закономерностях и механизмах человеческого поведения и интеллекта. У меня лично к нему огромное уважение.
При всем этом я скептически относился к его недавним высказываниям об опасностях AI: слишком они неконкретные и слишком в духе наивного AI-думерства. Плюс, я много читал Талеба, чтобы верить предсказаниям экспертов о глобальных событиях, которые никогда не происходили.
Сегодня на глаза попал один интересный пример того, как Хинтон жестоко ошибался в своём прогнозе - хотя тема была ближе к его непосредственной деятельности и про намного более конкретные вещи, чем экзистенциальные риски ИИ.
В 2016 году Хинтон предсказал, что профессия радиолога в скором времени исчезнет: диагностику рентгеновских снимков будут делать алгоритмы машинного зрения. Слово гению (без сарказма):
We should stop training radiologists now. It’s just completely obvious that within five years, deep learning is going to do better than radiologists.
Сегодня в твиттере увидел график, показывающий, что с того момента количество вакансий для радиологов в Америке УВЕЛИЧИЛОСЬ. Кстати, про это предсказание уже писал в 2019 г. Гэри Маркус.
Этот пример не значит, что Хинтон обязательно ошибётся. Это значит, что Хинтон может ошибаться, одного его имени недостаточно для веры в его прогнозы.
Джофри Хинтон сейчас много говорит и пишет про опасности развития ИИ. Даже уволился из Гугла, чтобы, мол, свободно говорить на эту тему.
При этом у Хинтона огромный авторитет, и ему многие доверяют. Он работал на заре нейросетей в целом и глубокого обучения в частности + он ученый-когнитивист, то есть разбирается в закономерностях и механизмах человеческого поведения и интеллекта. У меня лично к нему огромное уважение.
При всем этом я скептически относился к его недавним высказываниям об опасностях AI: слишком они неконкретные и слишком в духе наивного AI-думерства. Плюс, я много читал Талеба, чтобы верить предсказаниям экспертов о глобальных событиях, которые никогда не происходили.
Сегодня на глаза попал один интересный пример того, как Хинтон жестоко ошибался в своём прогнозе - хотя тема была ближе к его непосредственной деятельности и про намного более конкретные вещи, чем экзистенциальные риски ИИ.
В 2016 году Хинтон предсказал, что профессия радиолога в скором времени исчезнет: диагностику рентгеновских снимков будут делать алгоритмы машинного зрения. Слово гению (без сарказма):
We should stop training radiologists now. It’s just completely obvious that within five years, deep learning is going to do better than radiologists.
Сегодня в твиттере увидел график, показывающий, что с того момента количество вакансий для радиологов в Америке УВЕЛИЧИЛОСЬ. Кстати, про это предсказание уже писал в 2019 г. Гэри Маркус.
Этот пример не значит, что Хинтон обязательно ошибётся. Это значит, что Хинтон может ошибаться, одного его имени недостаточно для веры в его прогнозы.
Dissociation between conscious and unconscious processes as a criterion for sentience
Помните статью про сознание у растений? Мы с коллегами побрейнстормили и написали комментарий к этой статье: https://www.wellbeingintlstudiesrepository.org/animsent/vol8/iss33/25/
От растений нельзя получить вербальный отчёт, а само по себе "когнитивное поведение" – типа ассоциативного научения – сознания не гарантирует. На это указали многие комментаторы этой статьи.
Основываясь на исследованиях сознания у человека мы предложили следующую – на первый взгляд контринтуитивную – идею: чтобы показать наличие сознания в некоторой системе (вид животного, растения или компьютер), необходимо продемонстрировать наличие как осознаваемых, так и неосознаваемых процессов в этой системе.
Существование неосознаваемых процессов обработки информации постулируется всеми основными научными теориями сознания. Плюс, методически, сравнение эффектов осознаваемой и неосознаааеиой обработки - золотой стандарт в экспериментальных исследованиях сознания в когнитивной психологии и нейронауке.
Такой подход сработал недавно на животных. Бен-Хаим и коллеги (2021) использовали парадигму подсказки, в которой макаки-резусы определяли местоположение предъявляемых стимулов. Перед стимулами давалась короткая визуальная подсказка: либо надпорогово (то есть над порогом осознания, более долгое предъявление - 250 мс), либо подпоротого (17/33 мс, то есть 1/30 секунды). Авторы обнаружили, что надпороговые подсказки (предположительно осознаваемые) ускоряли правильное обнаружение целей, а подпороговые (предположительно неосознаваемые) – замедляли.
Подход, основанный на демонстрации такой диссоциации, не требует заглядывать в субьективный мир цветочка, но позволяет показать два типа принципиально разных процессов в системе. Поэтому мы считаем, что это может быть интересным направлением в исследовании сознания у растений.
Немного спекулируя дальше, можно сказать, что полностью сознательная система неотличима от полностью неосознанной. Сознание всегда связано с избирательностью, то есть отсевом (или даже подавлением) части информации в системе. Но это скорее моя интуиция, хороших аргументов для обоснования этого тезиса у меня пока нет. Будем искать.
Помните статью про сознание у растений? Мы с коллегами побрейнстормили и написали комментарий к этой статье: https://www.wellbeingintlstudiesrepository.org/animsent/vol8/iss33/25/
От растений нельзя получить вербальный отчёт, а само по себе "когнитивное поведение" – типа ассоциативного научения – сознания не гарантирует. На это указали многие комментаторы этой статьи.
Основываясь на исследованиях сознания у человека мы предложили следующую – на первый взгляд контринтуитивную – идею: чтобы показать наличие сознания в некоторой системе (вид животного, растения или компьютер), необходимо продемонстрировать наличие как осознаваемых, так и неосознаваемых процессов в этой системе.
Существование неосознаваемых процессов обработки информации постулируется всеми основными научными теориями сознания. Плюс, методически, сравнение эффектов осознаваемой и неосознаааеиой обработки - золотой стандарт в экспериментальных исследованиях сознания в когнитивной психологии и нейронауке.
Такой подход сработал недавно на животных. Бен-Хаим и коллеги (2021) использовали парадигму подсказки, в которой макаки-резусы определяли местоположение предъявляемых стимулов. Перед стимулами давалась короткая визуальная подсказка: либо надпорогово (то есть над порогом осознания, более долгое предъявление - 250 мс), либо подпоротого (17/33 мс, то есть 1/30 секунды). Авторы обнаружили, что надпороговые подсказки (предположительно осознаваемые) ускоряли правильное обнаружение целей, а подпороговые (предположительно неосознаваемые) – замедляли.
Подход, основанный на демонстрации такой диссоциации, не требует заглядывать в субьективный мир цветочка, но позволяет показать два типа принципиально разных процессов в системе. Поэтому мы считаем, что это может быть интересным направлением в исследовании сознания у растений.
Немного спекулируя дальше, можно сказать, что полностью сознательная система неотличима от полностью неосознанной. Сознание всегда связано с избирательностью, то есть отсевом (или даже подавлением) части информации в системе. Но это скорее моя интуиция, хороших аргументов для обоснования этого тезиса у меня пока нет. Будем искать.
Have we lost our minds?
Какой прекрасный блогпост от Мэтью Ботвинника.
Ботвинник был главным теоретиком когнитивного контроля в двухтысячных, а потом работаю в Deep Mind над искусственным интеллектом.
Мне всегда казалось, что он довольно конкретный мыслитель, но тут он написал историческое / личное / философское эссе.
Сначала кажется, что он собрался высказаться по поводу экзистенциальных рисков ИИ, но по ходу чтения оказывается, что он решил высказаться о человеческом сознании.
Пишет, как сознание ему было интересно с самого начала научной карьеры, но по ходу дела стало казаться, что ничего необъяснимого в нем нет, все вроде бы объясняется нейрофизиологическими механизмами, которые мы успешно открываем.
Именно реакция на революцию в ИИ последних двух лет заставила его снова подумать об этом и… отвергнуть эту мысль. Современный ИИ может делать почти всё, что делает человек. И в нём явно нет никакого сознания. Значит ли это, что в нас сознания тоже нет?..
Ботвинник углубляется в некоторые философские работы, которые на него повлияли. Он цитирует критику элиминитивизма (идеи, что сознания и правда не существует), а затем переходит к критике эпифеноменализма. Эпифеноменализм гласит, что сознание существует, но не имеет никакой функциональной роли. Это просто такой ни на что не влияющий побочный эффект работы мозга. Опровергнуть эпифеноменализм сложно, но можно высказывать аргументы против него - что Ботвинник и пытается делать.
В итоге он приходит к выводу, что сознание – это единственное, что заставляет нас беспокоиться об окружающем мире, испытывать боль и удовольствие, таким образом влияя на наше поведение. В конце концов, сознание, феноменальный опыт – единственное, что делает мир осмысленным.
Слово автору:
Why does it matter if, say, your dog gets hit by a car? Or if your soccer team wins? Or if COVID cases rise in China? These things matter precisely because of the pain or pleasure they cause, whether that is physical or psychic, personal or sympathetic, immediate, eventual, anticipated, or avoided. That pain or pleasure, in turn, is fundamentally an experience, tied to and dependent upon consciousness. To state the bottom-line conclusion, things only matter because of their impact on your conscious experience. Consciousness, whatever else may be true of it, is the only thing we know of that makes other things matter.
Какой прекрасный блогпост от Мэтью Ботвинника.
Ботвинник был главным теоретиком когнитивного контроля в двухтысячных, а потом работаю в Deep Mind над искусственным интеллектом.
Мне всегда казалось, что он довольно конкретный мыслитель, но тут он написал историческое / личное / философское эссе.
Сначала кажется, что он собрался высказаться по поводу экзистенциальных рисков ИИ, но по ходу чтения оказывается, что он решил высказаться о человеческом сознании.
Пишет, как сознание ему было интересно с самого начала научной карьеры, но по ходу дела стало казаться, что ничего необъяснимого в нем нет, все вроде бы объясняется нейрофизиологическими механизмами, которые мы успешно открываем.
Именно реакция на революцию в ИИ последних двух лет заставила его снова подумать об этом и… отвергнуть эту мысль. Современный ИИ может делать почти всё, что делает человек. И в нём явно нет никакого сознания. Значит ли это, что в нас сознания тоже нет?..
Ботвинник углубляется в некоторые философские работы, которые на него повлияли. Он цитирует критику элиминитивизма (идеи, что сознания и правда не существует), а затем переходит к критике эпифеноменализма. Эпифеноменализм гласит, что сознание существует, но не имеет никакой функциональной роли. Это просто такой ни на что не влияющий побочный эффект работы мозга. Опровергнуть эпифеноменализм сложно, но можно высказывать аргументы против него - что Ботвинник и пытается делать.
В итоге он приходит к выводу, что сознание – это единственное, что заставляет нас беспокоиться об окружающем мире, испытывать боль и удовольствие, таким образом влияя на наше поведение. В конце концов, сознание, феноменальный опыт – единственное, что делает мир осмысленным.
Слово автору:
Why does it matter if, say, your dog gets hit by a car? Or if your soccer team wins? Or if COVID cases rise in China? These things matter precisely because of the pain or pleasure they cause, whether that is physical or psychic, personal or sympathetic, immediate, eventual, anticipated, or avoided. That pain or pleasure, in turn, is fundamentally an experience, tied to and dependent upon consciousness. To state the bottom-line conclusion, things only matter because of their impact on your conscious experience. Consciousness, whatever else may be true of it, is the only thing we know of that makes other things matter.
Medium
Have we lost our minds?
An AI researcher and neuroscientist takes stock
The mind is flat
Интересная, но не бесспорная лекция британского профессора Ника Чейтера (пять лет в обед). Он выступает против идеи сильного когнитивного бессознательного. Что это значит?
В психологии довольно давно доминирует идея о том, что когнитивные процессы можно разделить на осознаваемые и неосознаваемые. При этом, содержание неосознаваемой части психики намного шире, чем осознаваемой. Например, можно взять нашу память: всё, что мы помним, хранится без сознания и осознаётся только в момент произвольного или непроизвольного извлечения воспоминаний.
Также общим мнением является то, что большая часть когнитивных процессов протекает вовсе без участия сознания: подпороговое восприятие, имплицитное научение, имплицитная память, когнитивные искажения и т.д и т.п.
При этом подспудно предполагается, что содержания бессознательного, то есть хранящиеся там репрезентации событий и объектов внешнего мира, идентичны осознаваемым. Чтобы они осознались, нужно что-то к этим репрезентацияи добавить (например, чтобы они попали в глобальное рабочее пространство).
Чейтер же утверждает, что содержание сознания - это и есть исчерпывающее содержание нашей психики. Всё, что остаётся за пределами сознания не является неосознаваемой копией того, что находится в сознании. Это некоторые нейрофизиологические отпечатки прежнего опыта. Они, конечно, влияют на формирование содержания сознания, но сознание всегда конструирует свое содержание заново. Да – под влиянием предыдущего опыта и на его основе. Нет никаких неосознаваемых воспоминаний и когниций. Когда мы что-то осознанно вспоминаем, мы конструируем воспоминания заново из имеющегося нейрофизиологического материала.
Таким образом, Чейтер подчеркивает, с одной стороны, ограниченность нашего сознания (ложные воспоминания, слепота по невниманию и т. д.). А с другой стороны – творческую силу нашего сознания (см. разные иллюзии и как контекст определяет интерпретацию событий), которое постоянно конструирует образ окружающего мира, да ещё и выстраивает из этих конструкций единую слаженную историю.
https://www.youtube.com/watch?v=vspX6NaLxdc
Интересная, но не бесспорная лекция британского профессора Ника Чейтера (пять лет в обед). Он выступает против идеи сильного когнитивного бессознательного. Что это значит?
В психологии довольно давно доминирует идея о том, что когнитивные процессы можно разделить на осознаваемые и неосознаваемые. При этом, содержание неосознаваемой части психики намного шире, чем осознаваемой. Например, можно взять нашу память: всё, что мы помним, хранится без сознания и осознаётся только в момент произвольного или непроизвольного извлечения воспоминаний.
Также общим мнением является то, что большая часть когнитивных процессов протекает вовсе без участия сознания: подпороговое восприятие, имплицитное научение, имплицитная память, когнитивные искажения и т.д и т.п.
При этом подспудно предполагается, что содержания бессознательного, то есть хранящиеся там репрезентации событий и объектов внешнего мира, идентичны осознаваемым. Чтобы они осознались, нужно что-то к этим репрезентацияи добавить (например, чтобы они попали в глобальное рабочее пространство).
Чейтер же утверждает, что содержание сознания - это и есть исчерпывающее содержание нашей психики. Всё, что остаётся за пределами сознания не является неосознаваемой копией того, что находится в сознании. Это некоторые нейрофизиологические отпечатки прежнего опыта. Они, конечно, влияют на формирование содержания сознания, но сознание всегда конструирует свое содержание заново. Да – под влиянием предыдущего опыта и на его основе. Нет никаких неосознаваемых воспоминаний и когниций. Когда мы что-то осознанно вспоминаем, мы конструируем воспоминания заново из имеющегося нейрофизиологического материала.
Таким образом, Чейтер подчеркивает, с одной стороны, ограниченность нашего сознания (ложные воспоминания, слепота по невниманию и т. д.). А с другой стороны – творческую силу нашего сознания (см. разные иллюзии и как контекст определяет интерпретацию событий), которое постоянно конструирует образ окружающего мира, да ещё и выстраивает из этих конструкций единую слаженную историю.
https://www.youtube.com/watch?v=vspX6NaLxdc
YouTube
The Mind is Flat | Nick Chater | Talks at Google
We all like to think we have a hidden inner life. Most of us assume that our beliefs and desires arise from the murky depths of our minds, and, if only we could work out how to access this mysterious world, we could truly understand ourselves. Nick Chater…
Engineering sentience
Выступление Хаквана Лау на тему сознания с точки зрения инженерии. На самом деле, про инженерию почти ничего конкретного нет, но мне понравилась структура доклада: даётся рабочее определение сознания и защищается в ходе выступления.
[есть ещё твиттер-тред с пояснениями от самого Лау]
Лау начинает с того, что в эмпирической науке мы можем исходить исключительно из функциональной роли сознания.
Общий путь биологии - в его изложении - такой: мы идентифицируем функцию, а затем обнаруживаем и описываем её механизмы. Если мы не считаем, что у сознания нет какой-то когнитивной функции, то мы можем заниматься философией, физикой, чем угодно, но не биологией (психологией) сознания.
Лау говорит про sentience, а не consciousness. Но sentience (способность субъективно ощущать) - это часть сознания. Иногда её называют феноменальным сознанием.
Определение Лау даёт такое: meaningful processing of sensory signals that are *self-asserting* and *subjectively qualitative*.
“Self-asserting” (я бы перевёл как "императивный", "неотвратимый") значит, что некий сигнал признается по умолчанию несущим некую истинную информацию о мире или об организме. Мы можем оценить мысль как неправильную и отказаться от нее, но мы не можем так же отказаться от головной боли или от того, что яблоко перед нами красное.
"Qualitative" значит, что этот сигнал существует в некотором аналоговом формате и может быть охарактеризован только через сравнение с другими такими сигналами. Например, ощущение красноты того самого яблока может быть описано только через сравнение с другими ощущениями, например, через схожесть с ощущением розового цвета и несхожесть с ощущением зелёного цвета.
Сигнал "subjective" в том смысле, что он говорит о нашем восприятии, а не только о мире. Человек с дальтонизмом не различает зелёный и красный, но он знает, что в реальности объекты этих цветов различаются и другие люди это видят.
Такое безусловное принятие информации может быть информативно: оно может сообщать нам как об окружающем мире, так и о нас самих – например, в случае конфликта между тем, что мы знаем и тем, что мы чувствуем (галлюцинации, иллюзии).
Разложив феноменальное сознание на эти компоненты, мы можем думать, как реализовать его в машинах. Например, можно ли сделать часть поступающих сигналов "self-asserting"? Да, можно. Любопытный момент, на котором настаивает Лау: мы можем сами решить, какие сигналы делать такими. Например, восприятие цвета можно сделать таким аналоговым и императивным, а воприятие боли - нет. Таким образом мы избежим увеличения страдания в мире, о чем переживают некоторые учёные.
Мне кажется, что функциональная роль этих специфических осознаваемых сигналов в докладе раскрыта была не так хорошо. Но мне понравилась попытка дать технически реализуемое определение сознания.
Выступление Хаквана Лау на тему сознания с точки зрения инженерии. На самом деле, про инженерию почти ничего конкретного нет, но мне понравилась структура доклада: даётся рабочее определение сознания и защищается в ходе выступления.
[есть ещё твиттер-тред с пояснениями от самого Лау]
Лау начинает с того, что в эмпирической науке мы можем исходить исключительно из функциональной роли сознания.
Общий путь биологии - в его изложении - такой: мы идентифицируем функцию, а затем обнаруживаем и описываем её механизмы. Если мы не считаем, что у сознания нет какой-то когнитивной функции, то мы можем заниматься философией, физикой, чем угодно, но не биологией (психологией) сознания.
Лау говорит про sentience, а не consciousness. Но sentience (способность субъективно ощущать) - это часть сознания. Иногда её называют феноменальным сознанием.
Определение Лау даёт такое: meaningful processing of sensory signals that are *self-asserting* and *subjectively qualitative*.
“Self-asserting” (я бы перевёл как "императивный", "неотвратимый") значит, что некий сигнал признается по умолчанию несущим некую истинную информацию о мире или об организме. Мы можем оценить мысль как неправильную и отказаться от нее, но мы не можем так же отказаться от головной боли или от того, что яблоко перед нами красное.
"Qualitative" значит, что этот сигнал существует в некотором аналоговом формате и может быть охарактеризован только через сравнение с другими такими сигналами. Например, ощущение красноты того самого яблока может быть описано только через сравнение с другими ощущениями, например, через схожесть с ощущением розового цвета и несхожесть с ощущением зелёного цвета.
Сигнал "subjective" в том смысле, что он говорит о нашем восприятии, а не только о мире. Человек с дальтонизмом не различает зелёный и красный, но он знает, что в реальности объекты этих цветов различаются и другие люди это видят.
Такое безусловное принятие информации может быть информативно: оно может сообщать нам как об окружающем мире, так и о нас самих – например, в случае конфликта между тем, что мы знаем и тем, что мы чувствуем (галлюцинации, иллюзии).
Разложив феноменальное сознание на эти компоненты, мы можем думать, как реализовать его в машинах. Например, можно ли сделать часть поступающих сигналов "self-asserting"? Да, можно. Любопытный момент, на котором настаивает Лау: мы можем сами решить, какие сигналы делать такими. Например, восприятие цвета можно сделать таким аналоговым и императивным, а воприятие боли - нет. Таким образом мы избежим увеличения страдания в мире, о чем переживают некоторые учёные.
Мне кажется, что функциональная роль этих специфических осознаваемых сигналов в докладе раскрыта была не так хорошо. Но мне понравилась попытка дать технически реализуемое определение сознания.
YouTube
Engineering Sentience (Hakwan Lau seminar in Oslo)
a philosophy seminar on how we can define sentience in functional terms, to allow for sentient AI to be designed and built. we also discuss implications for animal consciousness
date was May 12, 2023
seminar notes are here - https://docs.google.com/doc…
date was May 12, 2023
seminar notes are here - https://docs.google.com/doc…
Про мышей и котов
Люблю поучительные анекдоты из истории науки.
Читал программную статью Яка Панксеппа про эмоции у животных (о ней, наверное, напишу отдельно), где он описывает такую историю. Несколько лет подряд он с коллегами получал разные интересные результаты относительно того, как крысы реагируют на фармакологию, связанную со снижением тревожности.
Оказалось, что эти результаты были под сильным влиянием того, что по-соседству (на расстоянии нескольких комнат) находилась лаборатория, где ставили эксперименты на кошках. Крысы чувствовали кошачий запах, и их поведение было почти всегда было под влиянием стресса, страха и тревоги. Как только кошачья лаборатория закрылась, полученные на крысах эффекты перестали воспроизводиться.
Исследователи поняли причину пропавших эффектов только несколько лет спустя, заметив, что они снова наблюдаются, как только в лаборатории появляется кошачий запах.
Напомнило недавнее исследование, где было показано, что пол экспериментатора влияет на поведение лабораторных крыс (думал, что постил это раньше в канале, но не смог найти).
Такие вот вещи влияют на реплицируемость исследований. Не только плохая статистика исследователей и криворукость репликаторов.
Люблю поучительные анекдоты из истории науки.
Читал программную статью Яка Панксеппа про эмоции у животных (о ней, наверное, напишу отдельно), где он описывает такую историю. Несколько лет подряд он с коллегами получал разные интересные результаты относительно того, как крысы реагируют на фармакологию, связанную со снижением тревожности.
Оказалось, что эти результаты были под сильным влиянием того, что по-соседству (на расстоянии нескольких комнат) находилась лаборатория, где ставили эксперименты на кошках. Крысы чувствовали кошачий запах, и их поведение было почти всегда было под влиянием стресса, страха и тревоги. Как только кошачья лаборатория закрылась, полученные на крысах эффекты перестали воспроизводиться.
Исследователи поняли причину пропавших эффектов только несколько лет спустя, заметив, что они снова наблюдаются, как только в лаборатории появляется кошачий запах.
Напомнило недавнее исследование, где было показано, что пол экспериментатора влияет на поведение лабораторных крыс (думал, что постил это раньше в канале, но не смог найти).
Такие вот вещи влияют на реплицируемость исследований. Не только плохая статистика исследователей и криворукость репликаторов.
Гармонизация поведения людей и нейросетей
Копаясь в работах по машинному зрению (один проект сейчас с этим связан) нашёл работу по “гармонизации” поведения глубоких нейросетей с людьми. Под “гармонией” понимается похожесть стратегий распознавания объектов у людей и нейросетей.
Авторы пишут, что сравнив 84 глубоких нейросети с тремя человеческими датасетами на тему того, куда и как смотрят люди при распознавании объектов, они обнаружили, что существует трейдофф: чем выше точность нейросети, тем меньше стратегия модели похожа на человеческую:
Наша работа представляет собой первую демонстрацию того, что законы масштабирования, которыми сегодня руководствуются при разработке глубоких нейросетей, привели к более плохим моделям человеческого зрения.
Авторы предлагают метод доучивания нейросетей – использовать те признаки для распознавания, котрые используют люди. Точность распознания объектов, как они пишут, повышается – как и схожесть с человеческими суждениями.
Репозиторий: https://github.com/serre-lab/harmonization
Копаясь в работах по машинному зрению (один проект сейчас с этим связан) нашёл работу по “гармонизации” поведения глубоких нейросетей с людьми. Под “гармонией” понимается похожесть стратегий распознавания объектов у людей и нейросетей.
Авторы пишут, что сравнив 84 глубоких нейросети с тремя человеческими датасетами на тему того, куда и как смотрят люди при распознавании объектов, они обнаружили, что существует трейдофф: чем выше точность нейросети, тем меньше стратегия модели похожа на человеческую:
Наша работа представляет собой первую демонстрацию того, что законы масштабирования, которыми сегодня руководствуются при разработке глубоких нейросетей, привели к более плохим моделям человеческого зрения.
Авторы предлагают метод доучивания нейросетей – использовать те признаки для распознавания, котрые используют люди. Точность распознания объектов, как они пишут, повышается – как и схожесть с человеческими суждениями.
Репозиторий: https://github.com/serre-lab/harmonization
Про антропоморфизм и антропоцентризм
После поста про сознание у растений в комментариях возникла дискуссия об антропоморфизме (уподоблению психики животных психике человека) и антропоцентризме (идее об исключительности человеческой психики). С одной стороны обе идеи считаются научно порочными. С другой стороны, они противоположны друг другу, поэтому борьба с антропоцентризмом часто ведет к антропоморфизму: люди начинают говорить, что у животных все то же самое – вот, мол, юмор, вот эмоции, вот мораль, вот месть, вот азартные игры и т.д. - ничего у человека уникального нет! Часто этим грешат университетские преподаватели биологии: строят из себя материалистов, а заканчивают наивными фантазиями о психической жизни животных.
К чему я это. К тому, что иногда грех антропоцентризма связывают с грехом антропоморфизма, одно якобы следует из другого. Мне же - как я уже писал выше - кажется, что они противоположны и редко напрямую связаны (по крайней мере в среде профессиональных учёных).
Вот хороший пример конфликта этих двух взглядов из жизни Яка Панксеппа, который всю жизнь изучал эмоции грызунов (из той же статьи). Его работу про "смех" у крыс не хотели принимать и советовали от слова "laughther" в своих работах отказаться. Вопрос: кто тут антропоморфист, а кто антропоцентрист?
P.S. Ок, в идеальном сценарии, должна быть разработана теория и система понятий, независимая от привычных способов описания человека и животных. Пример такого подхода – Пол Чизек [1, 2]. Но создавать свою теорию поведения/психики с нуля не все готовы.
После поста про сознание у растений в комментариях возникла дискуссия об антропоморфизме (уподоблению психики животных психике человека) и антропоцентризме (идее об исключительности человеческой психики). С одной стороны обе идеи считаются научно порочными. С другой стороны, они противоположны друг другу, поэтому борьба с антропоцентризмом часто ведет к антропоморфизму: люди начинают говорить, что у животных все то же самое – вот, мол, юмор, вот эмоции, вот мораль, вот месть, вот азартные игры и т.д. - ничего у человека уникального нет! Часто этим грешат университетские преподаватели биологии: строят из себя материалистов, а заканчивают наивными фантазиями о психической жизни животных.
К чему я это. К тому, что иногда грех антропоцентризма связывают с грехом антропоморфизма, одно якобы следует из другого. Мне же - как я уже писал выше - кажется, что они противоположны и редко напрямую связаны (по крайней мере в среде профессиональных учёных).
Вот хороший пример конфликта этих двух взглядов из жизни Яка Панксеппа, который всю жизнь изучал эмоции грызунов (из той же статьи). Его работу про "смех" у крыс не хотели принимать и советовали от слова "laughther" в своих работах отказаться. Вопрос: кто тут антропоморфист, а кто антропоцентрист?
P.S. Ок, в идеальном сценарии, должна быть разработана теория и система понятий, независимая от привычных способов описания человека и животных. Пример такого подхода – Пол Чизек [1, 2]. Но создавать свою теорию поведения/психики с нуля не все готовы.
Нерегулярная рубрика: иллюзия выходного дня
Представьте что вы едете по берегу водоема против видимого течения. Увеличится ли воспринимаемое движение потока или замедлится?
Ответ в рилсе: https://www.instagram.com/reel/Cs3q6juulSM/?igshid=MzRlODBiNWFlZA==
Представьте что вы едете по берегу водоема против видимого течения. Увеличится ли воспринимаемое движение потока или замедлится?
Ответ в рилсе: https://www.instagram.com/reel/Cs3q6juulSM/?igshid=MzRlODBiNWFlZA==
Побыл гостем в подкасте Den of Rich. Разговор получился, в основном, про эмоции. Автор подкаста задавал интересные вопросы и часто не соглашался, в итоге мы выходили на не самые привычные темы. Приятного прослушивания!
https://www.youtube.com/watch?v=XDrBGI2GPlY
https://www.youtube.com/watch?v=XDrBGI2GPlY
YouTube
Day 836
Become a podcast guest: https://bit.ly/becomeapodcastguest
Data Input Interface: https://bit.ly/datainputinterface
Become a member: https://www.youtube.com/channel/UC8L3GkqaV33qV03WB8Osmgw/join
Data Input Interface: https://bit.ly/datainputinterface
Become a member: https://www.youtube.com/channel/UC8L3GkqaV33qV03WB8Osmgw/join
Сознание младенцев
Статья на тему. Не даёт никаких интересных ответов, но есть несколько мыслей.
Во-первых, все чаще в последнее время встречаю идею о том, что сознание позволяет нам отделять наше восприятие от реальности.
То есть дублирование в сознании окружающего мира заставляет нас думать о том, что это не сам мир, а лишь его репрезентация. Вспомните, что говорил Хакван Лау в своей лекции: знание о том, что ты не различаешь цвета, которые различают другие люди - яркий пример понимания того, что твое восприятие отдельно от окружающего мира. Довольно неочевидная мысль: мне как раз казалось, людям трудно даётся понимание того, что восприятие не содержит в себе реальности как таковой.
Ну а главный вывод статьи: у младенцев скорее всего есть сознание, но оно не похоже на сознание взрослых. Оно содержит в себе чувственное переживание внешних стимулов, но не содержит когнитивного компонента, связанного с языком: который позволяет вербально мыслить и рефлексировать. А это возвращает нас к первому пункту: у младенцев скорее всего нет рефлексивного понимания того, что твое восприятие - это только отражение мира, а не он сам.
Если чуть углубиться в когнитивную терминологию, то можно сказать, что у младенцев есть sentience или феноменальное сознание (phenomenal consciousness), но нет сознания доступа (access consciousness), которое позволяет продвинутые когнитивные операции с воспринимаемой информацией.
https://bigthink.com/the-well/human-consciousness-womb-after-birth/
Статья на тему. Не даёт никаких интересных ответов, но есть несколько мыслей.
Во-первых, все чаще в последнее время встречаю идею о том, что сознание позволяет нам отделять наше восприятие от реальности.
То есть дублирование в сознании окружающего мира заставляет нас думать о том, что это не сам мир, а лишь его репрезентация. Вспомните, что говорил Хакван Лау в своей лекции: знание о том, что ты не различаешь цвета, которые различают другие люди - яркий пример понимания того, что твое восприятие отдельно от окружающего мира. Довольно неочевидная мысль: мне как раз казалось, людям трудно даётся понимание того, что восприятие не содержит в себе реальности как таковой.
Ну а главный вывод статьи: у младенцев скорее всего есть сознание, но оно не похоже на сознание взрослых. Оно содержит в себе чувственное переживание внешних стимулов, но не содержит когнитивного компонента, связанного с языком: который позволяет вербально мыслить и рефлексировать. А это возвращает нас к первому пункту: у младенцев скорее всего нет рефлексивного понимания того, что твое восприятие - это только отражение мира, а не он сам.
Если чуть углубиться в когнитивную терминологию, то можно сказать, что у младенцев есть sentience или феноменальное сознание (phenomenal consciousness), но нет сознания доступа (access consciousness), которое позволяет продвинутые когнитивные операции с воспринимаемой информацией.
https://bigthink.com/the-well/human-consciousness-womb-after-birth/
Всем привет!
Прошу прощения за перерыв в блоге – неделю назад вернулся с главной научной конференции по исследованиям сознания, перевариваю впечатления, борюсь с джетлагом. А также готовлю пост о конференции! Ждите! А пока советую посмотреть подкаст "Ноосфера" с моим участием. Получился достаточно глубокий и довольно академический разговор о сознании, эмоциях и искусственном интеллекте. В том числе немного поговорили и про мои нынешние проекты. Для тех, кто смотрел предыдущий подкаст – этот на него совсем не похож 🙂
https://youtu.be/Ez0aD_MWAN4
Прошу прощения за перерыв в блоге – неделю назад вернулся с главной научной конференции по исследованиям сознания, перевариваю впечатления, борюсь с джетлагом. А также готовлю пост о конференции! Ждите! А пока советую посмотреть подкаст "Ноосфера" с моим участием. Получился достаточно глубокий и довольно академический разговор о сознании, эмоциях и искусственном интеллекте. В том числе немного поговорили и про мои нынешние проекты. Для тех, кто смотрел предыдущий подкаст – этот на него совсем не похож 🙂
https://youtu.be/Ez0aD_MWAN4
YouTube
Иван Иванчей: Когниции и метакогниции, эмоции, сознание | Подкаст «Ноосфера» #033
#когниции #эмоции #сознание
Гость подкаста: Иван Иванчей, кандидат психологических наук, научный сотрудник Свободного университета Брюсселя (Université Libre de Bruxelles). Занимается исследованием роли эмоций в познавательной деятельности человека.
Ресурсы…
Гость подкаста: Иван Иванчей, кандидат психологических наук, научный сотрудник Свободного университета Брюсселя (Université Libre de Bruxelles). Занимается исследованием роли эмоций в познавательной деятельности человека.
Ресурсы…
ASSC 26
Итак, с 22 по 26 июня я был в Нью-Йорке на главной конференция по исследованиям сознания – ежегодная встреча Association for the Scientific Studies of Consciousness, членом которой я являюсь (чтобы платить маленький оргвзнос). Конференция собирает психологов, нейроучёных и философов, которые занимаются эмпирическими исследованиями проблемы сознания.
Есть другая известная конференция по сознанию: Towards the science of consciousness. Туда – кроме учёных – приезжают всякие йоги и духовидцы, поэтому у конференции специфический флёр, многие учёные её избегают.
Так вот, ASSC не такая, это действительно главная конференция по теме, где можно отследить прогресс за год по основным направлениям исследования сознания. (Хотя конференция проходит слишком часто, чтобы ездить на неё каждый год - не так уж много открытий)
Конференция в целом прошла отлично. В качестве одного из кейноут-спикеров выступала Мэй-Бритт Мозер, которая в 2014 году получила нобелевскую премию за открытие решётчатых нейронов в гиппокампе (grid cells). С восторгом аспирантки первого года она рассказывала про свои текущие работы в области навигации грызунов.
Другими кейноутами были философ Томас Нагель – автор знаменитой работы "Что значит быть летучей мышью?”, легализовавшей в когнитивной науке субъективность сознательного опыта. Он рассказывал про какую-то более новую форму философского дуализма, но я не понял, чем она отличается от старого доброго дуализма. Моей целью было просто послушать Нагеля вживую, что я успешно осуществил и очень рад. Нагель уже старенький (84 года), и это заметно. Хотя Нед Блок (81 год) рядом с ним всё равно смотрится как подросток.
Кстати, также ходил послушать Девида Розенталя – автора теории мыслей высшего порядка (Higher-order thought theory). Посмотреть на старика было интересно, но выступление было ужасное: абзацы текста на синем фоне с параллельным чтением монотонным голосом.
Выступал также Йошуа Бенджио (к сожалению, по зуму) – один из крёстных отцов диплёрнина. Лекция была довольно общая, но мне очень понравилось, как он сравнивает современные глубокие нейросети с системой 1 по Канеману. Мы с вами тут уже обсуждали похожую идею 😉 Мимолётом упомянув их современные разработки, которые реализуют функции, более близкие к системе 2 и человеческому сознанию, Бенджио закончил экзистенциальными рисками AI, которые он считает вполне реальными.
На рядовых сессиях я, конечно, много слушал про метакогниции (сам же про них и докладывал). Никаких прорывов в этой области, к сожалению, нет.
Что заметил на других сессиях. Всё больше людей говорят про значимость эмоциональных процессов для понимания сознания (даже Нагель про это немного говорил). Был целый симпозиум на тему связи эмоций и восприятия. Слушал интересный доклад на тему того, как поражения полосатого тела (стриатума) влияют на сознание: сознание всегда связывают с корой больших полушарий, но редко смотрят на связь с подкорковыми центрами (исключение – Дамасио). Стриатум связан с системой подкрепления, то есть тоже аффективными процессами, так что его связь с состояниями сознания очень интересна.
Послушал на симпозиуме про сознание у животных про осознаваемые и неосознаваемые процессы у шмелей: в явном виде принципиально разных процессов не обнаружено - что согласно предложенному нами критерию означает, что говорить о сознании у шмелей – рано (в докладе были шутки про zom-bees).
Дальше скину несколько фотографий с конференции. А завтра будет пост о научно-развлекательной программе. Она была весьма выдающейся (возможно, вы уже что-то слышали).
Итак, с 22 по 26 июня я был в Нью-Йорке на главной конференция по исследованиям сознания – ежегодная встреча Association for the Scientific Studies of Consciousness, членом которой я являюсь (чтобы платить маленький оргвзнос). Конференция собирает психологов, нейроучёных и философов, которые занимаются эмпирическими исследованиями проблемы сознания.
Есть другая известная конференция по сознанию: Towards the science of consciousness. Туда – кроме учёных – приезжают всякие йоги и духовидцы, поэтому у конференции специфический флёр, многие учёные её избегают.
Так вот, ASSC не такая, это действительно главная конференция по теме, где можно отследить прогресс за год по основным направлениям исследования сознания. (Хотя конференция проходит слишком часто, чтобы ездить на неё каждый год - не так уж много открытий)
Конференция в целом прошла отлично. В качестве одного из кейноут-спикеров выступала Мэй-Бритт Мозер, которая в 2014 году получила нобелевскую премию за открытие решётчатых нейронов в гиппокампе (grid cells). С восторгом аспирантки первого года она рассказывала про свои текущие работы в области навигации грызунов.
Другими кейноутами были философ Томас Нагель – автор знаменитой работы "Что значит быть летучей мышью?”, легализовавшей в когнитивной науке субъективность сознательного опыта. Он рассказывал про какую-то более новую форму философского дуализма, но я не понял, чем она отличается от старого доброго дуализма. Моей целью было просто послушать Нагеля вживую, что я успешно осуществил и очень рад. Нагель уже старенький (84 года), и это заметно. Хотя Нед Блок (81 год) рядом с ним всё равно смотрится как подросток.
Кстати, также ходил послушать Девида Розенталя – автора теории мыслей высшего порядка (Higher-order thought theory). Посмотреть на старика было интересно, но выступление было ужасное: абзацы текста на синем фоне с параллельным чтением монотонным голосом.
Выступал также Йошуа Бенджио (к сожалению, по зуму) – один из крёстных отцов диплёрнина. Лекция была довольно общая, но мне очень понравилось, как он сравнивает современные глубокие нейросети с системой 1 по Канеману. Мы с вами тут уже обсуждали похожую идею 😉 Мимолётом упомянув их современные разработки, которые реализуют функции, более близкие к системе 2 и человеческому сознанию, Бенджио закончил экзистенциальными рисками AI, которые он считает вполне реальными.
На рядовых сессиях я, конечно, много слушал про метакогниции (сам же про них и докладывал). Никаких прорывов в этой области, к сожалению, нет.
Что заметил на других сессиях. Всё больше людей говорят про значимость эмоциональных процессов для понимания сознания (даже Нагель про это немного говорил). Был целый симпозиум на тему связи эмоций и восприятия. Слушал интересный доклад на тему того, как поражения полосатого тела (стриатума) влияют на сознание: сознание всегда связывают с корой больших полушарий, но редко смотрят на связь с подкорковыми центрами (исключение – Дамасио). Стриатум связан с системой подкрепления, то есть тоже аффективными процессами, так что его связь с состояниями сознания очень интересна.
Послушал на симпозиуме про сознание у животных про осознаваемые и неосознаваемые процессы у шмелей: в явном виде принципиально разных процессов не обнаружено - что согласно предложенному нами критерию означает, что говорить о сознании у шмелей – рано (в докладе были шутки про zom-bees).
Дальше скину несколько фотографий с конференции. А завтра будет пост о научно-развлекательной программе. Она была весьма выдающейся (возможно, вы уже что-то слышали).