tgoop.com/extended_surreality/278
Last Update:
Еще про ИИ и когнитивные искажения
Всю ночь смотрела интервью Дурова перечитывала статьи про использование ИИ в науке, готовясь к упомянутой выше дискуссии и к докладам на двух конференциях.
В частности, обратилась к статье «Artificial intelligence and illusions of understanding in scientific research», вышедшей в марте в журнале Nature.
Авторы статьи, как водится, отмечают, что распространение ИИ-инструментов в науке рано или поздно приведет к тому, что мы будем производить больше знания (в том числе и «мусорного»), но при этом меньше понимать его источники и содержание.
Ученые делят применяемые сегодня исследовательские ИИ-инструменты на генеративные и предиктивные и на основе этого выводят 4 условных типа ИИ в современной науке:
▪️Оракул (генерация научных гипотез и study design)
▪️Суррогат (моделирование сложных системных процессов и сбор данных)
▪️Квант (анализ данных для исследования)
▪️Арбитр (рецензирование полученных результатов исследования)
Их совместное применение увеличивает некоторые эпистемические риски, связанные с подверженностью ученых «иллюзиям понимания» (в т.ч. иллюзиям объяснительной глубины, широты и объективности).
Таким образом, самый актуальный вопрос сегодняшнего дня не «Что даст ИИ науке?» а «Как у нас формируются когнитивные иллюзии нового типа, порождаемые использованием ИИ?».
Старые-добрые ловушки вроде «эффекта ореола», «эффекта фрейминга» и, конечно, «эффекта Элизы» уже давно изучены, а вот новые - пока не очень.
Пока новые исследования по этой теме пишутся, вот тут можно посмотреть легендарный файл с 176 когнитивными искажениями, с которыми мы сталкиваемся ежедневно. Скорее всего, применение ИИ просто усугубит многие из них.
#papers
BY EXTENDED (SUR)REALITY
Share with your friend now:
tgoop.com/extended_surreality/278