tgoop.com/seeallochnaya/1501
Last Update:
Сегодня происходит много странно-интересного:
— прямо сейчас (хотя бы частично) лежат ChatGPT, Perplexity, Gemini, Claude
— ведущие AI-исследователи и бывшие/текущие сотрудники OpenAI/DeepMind подписывают открытое письмо про то, что работающие над AGI должны иметь возможность свободно выражать свое мнение и критиковать компанию без возможности компаний отобрать финансовые стимулы. А то дают миллионы долларов акций, а потом говорят «ну вот, а скажешь, что не согласен с нами — потеряешь всё!».
— недавно уволенный сотрудник OpenAI Leopold Aschenbrenner, работавший рука об руку с Ilya Sutskever в его команде, опубликовал 150+ страничную работу. Она покрывает всё: от законов масштабирования и предсказаний развития моделей до проблем Alignment'а и поведения ведущих лабораторий в преддверии достижения AGI. Читать: http://situational-awareness.ai . Если у вас есть полчасика и вы умеете читать по-английски, и вам вправду хочется понять, почему люди кричат, что к 2027-2030м годам модели реально поумнеют — начните с первых двух глав.
— ...и вместе с ним же выходит 4-часовое интервью у Dwarkesh'а, которого я уже не раз рекомендовал. Будем смотреть по частям, об интересных вещах постараюсь написать. Покрытые темы:
1) гонка к кластеру мощностей стоимостью $1T (триллион долларов)
2) что будет в 2028-м
3) что случилось в OpenAI (не думаю, что раскроет какие-то новые детали)
4) шпионаж Китая в AGI-лабораториях
BY Сиолошная

Share with your friend now:
tgoop.com/seeallochnaya/1501