tgoop.com/extended_surreality/318
Last Update:
3 свежие статьи про ИИ, которые стоит прочитать
▪️How Far We from AGI
Группа китайских исследователей опубликовала 120-страничный труд, где говорится об определении AGI, его необходимых свойствах (рассуждение, память, metacognition и т.п.), его возможных архитектурах, а также о проблеме выравнивания (alignment), и, конечно, о прогнозах, связанных со сроками реализации (5+ лет).
(Я пока просмотрела статью лишь по диагонали, но выглядит как хороший обзорный текст)
▪️Managing extreme AI risks amid rapid progress
Группа выдающихся ученых и специалистов по ML (в том числе Йошуа Бенжио и Джеффри Хинтон) опубликовали статью в Science, где говорят о проблемах контроля и безопасности автономного ИИ. Статья короткая и слегка нашумевшая (хотя никаких сверхъестественных выводов там нет), поэтому можно ознакомиться просто чтобы понять, о чем нынче рассуждают некоторые лауреаты премии Тьюринга.
▪️Mapping the Mind of a Large Language Model
Исследователи из компании Anthropic опубликовали текст про интерпретируемость LLM на примере их модели Claude 3 Sonnet. (Напомню, что изучение «внутренностей» модели, а именно ее работы с репрезентациями и концепциями - крайне важная задача для решения проблемы «черного ящика»).
Любопытно, что исследование показало, как внутренняя организация концепций в модели соответствует, по крайней мере, в некоторой степени, нашим человеческим представлениям о сходстве и аналогии (возможно, именно в этом заключается превосходная способность Клода работать с метафорами).
#papers
BY EXTENDED (SUR)REALITY
Share with your friend now:
tgoop.com/extended_surreality/318