tgoop.com/ai_newz/2014
Last Update:
Пока я летел до Ванкувера, слушал подкаст с Yoshua Bengio. Это канадский профессор, ещё один отец-основатель Глубокого Обучения, помимо Яна ЛеКуна и Джефа Хинтона.
Иошуа поговорил про большие языковые модели и высокоуровневое мышление. Очень интересно было послушать про ботлнек сознания человека — мы можем активно держать в уме только небольшое количество переменных, что концептуально сильно отличается от того как сейчас работают Deep Learning модели. С одной стороны, это ограничивает мощность человеческого мышления. С другой стороны это очень полезный регуляризатор, который, возможно, и позволил человеческому мозгу так быстро развиться в процессе эволюции и "заставил" человека учиться оперировать высокоуровневыми концептами.
Иошуа рассуждает о том, как было бы круто добавить такой индуктивный байес в обучение нейросетей и подводит к тому, что текущие авторегрессионные модели (как, например GPT-4) — это не совсем то, что может обрести интеллект равный человеческому. Он говорит, что не масштабированием единым мы достигнем AGI, и что нам предстоит ещё много чего концептуально улучшить в текущий моделях.
Ещё он много раз ссылается на свои недавние работы, где он со студентами пытается развивать новый тип моделей — Generative Flow Networks (GFlowNets). Я о них впервые услышал только в том подкасте, думаю стоит разобраться, что за они.
Уровень сложности подкаста — выше среднего. Но все равно очень рекомендую к прослушиванию.
Spotify | YouTube
@ai_newz
BY эйай ньюз
![](https://photo2.tgoop.com/u/cdn4.cdn-telegram.org/file/PfUoZKQggPrlfhowQDZLc05uehvi3V6-HrrBhHII0E8d6JduwUFCA5Una4LZNtBWDNoe-MfbVz_zS3YVvAeRDJSogc954-Gkvtv10DJWNHeci0jKiIKcpvQrVt5eQJ5lzdEzsnIWRoVs6-u9WfMnLj3AUv_orZvvoPwCCRuEMzRhYbUlF8Pqitc2-Nl77o2qZjmfWe2DgWoScdbR8aUPtOy3r0_iyhez6Zu_XBhwlN7-dCC2Oso5zZ4mCQvMotjJ9ailQ00lkRmhJu9CXv_dL_BA0H2_Pz_L3kriHS7c3T68dJ2k0rXlwnoJo6kM5ZFEShtIq3KZ_bf6bB6NZEF0eA.jpg)
Share with your friend now:
tgoop.com/ai_newz/2014