Выход есть, PhD берите на заметку
https://www.ndtv.com/feature/made-over-1-million-youtube-zara-dar-quits-phd-to-become-adult-content-creator-7313245
https://www.ndtv.com/feature/made-over-1-million-youtube-zara-dar-quits-phd-to-become-adult-content-creator-7313245
www.ndtv.com
"Made Over $1 Million": YouTuber Zara Dar Quits PhD To Become Adult Content Creator
"Moving on to doing OnlyFans and content creation full-time it's not just a career choice it feels kind of like a gamble on the direction of my entire life," Ms Dar said.
Осенью я рекламировал первый поток курса "Построй свой ChatGPT." Авторы курса помимо прочего дали мне доступ к курсу, чтобы я потом дал вам свой отзыв.
Я честно скажу, что ещё не прошел всего и медленно нагоняю по материалам с большим отставанием. Курс довольно плотный и я не мог им постоянно заниматься. Однако я могу точно сказать, что это лучший курс по LLM, который я знаю. В интернете и статьях можно найти по кусочкам много разрозненной информации, но, насколько я знаю, нигде нет хорошего трека со структурированными материалами, упражнениями и проектами. Про какие-то вещи в целом непонятно как узнавать, например про pre-training. Да и вообще гораздо проще когда тебе рассказывают про какой-то современный метод авторы статьи про этот метод.
Из минусов могу отметить, что первый поток был местами "сыроват": материалы в разном стиле, вебинары которые продолжались дольше запланированного и всё в таком стиле. Это ожидаемо для любого нового курса и насколько я вижу никому не помешало: авторы всегда были на связи, быстро решали проблемы и адаптировались под ситуацию. Например, в начале курса оказалось, что у части участников недостаточный уровень знакомства с Pytorch, и было сделано дополнительное занятие.
В общем, я рекомендую!
Я честно скажу, что ещё не прошел всего и медленно нагоняю по материалам с большим отставанием. Курс довольно плотный и я не мог им постоянно заниматься. Однако я могу точно сказать, что это лучший курс по LLM, который я знаю. В интернете и статьях можно найти по кусочкам много разрозненной информации, но, насколько я знаю, нигде нет хорошего трека со структурированными материалами, упражнениями и проектами. Про какие-то вещи в целом непонятно как узнавать, например про pre-training. Да и вообще гораздо проще когда тебе рассказывают про какой-то современный метод авторы статьи про этот метод.
Из минусов могу отметить, что первый поток был местами "сыроват": материалы в разном стиле, вебинары которые продолжались дольше запланированного и всё в таком стиле. Это ожидаемо для любого нового курса и насколько я вижу никому не помешало: авторы всегда были на связи, быстро решали проблемы и адаптировались под ситуацию. Например, в начале курса оказалось, что у части участников недостаточный уровень знакомства с Pytorch, и было сделано дополнительное занятие.
В общем, я рекомендую!
Telegram
Борис опять
Школа Высшей Математики запускает курс по LLM "Построй свой ChatGPT."
Я решил прорекламировать его из-за добротной программы целиком по делу, смотрите скриншот. Покрываются основы глубокого обучения, NLP, LLM, файнтюнинг и RLHF, ускорение и деплой. Я буквально…
Я решил прорекламировать его из-за добротной программы целиком по делу, смотрите скриншот. Покрываются основы глубокого обучения, NLP, LLM, файнтюнинг и RLHF, ускорение и деплой. Я буквально…
Ребята запускают новый поток
На сайте можно посмотреть записи нескольких занятий из первого потока.
Теперь можно будет выбрать трек подготовки в зависимости от текущего уровня:
1. LLM — формат первого потока
2. DL + LLM — трек с дополнительной вводной частью на 8 недель для тех, кто плохо знаком с DL и ML.
Старт трека LLM: 27 января 2025.
Старт трека DL + LLM: 3 февраля 2025.
До 31.12 включительно будет действовать скидка 40% по промокоду NEWYEAR40 на все наши курсы
Подробнее можно почитать у них в канале: https://www.tgoop.com/shvmxyz
На сайте можно посмотреть записи нескольких занятий из первого потока.
Теперь можно будет выбрать трек подготовки в зависимости от текущего уровня:
1. LLM — формат первого потока
2. DL + LLM — трек с дополнительной вводной частью на 8 недель для тех, кто плохо знаком с DL и ML.
Старт трека LLM: 27 января 2025.
Старт трека DL + LLM: 3 февраля 2025.
До 31.12 включительно будет действовать скидка 40% по промокоду NEWYEAR40 на все наши курсы
Подробнее можно почитать у них в канале: https://www.tgoop.com/shvmxyz
Telegram
ШВМ - Программы по AI
Школа Высшей Математики
www.shvm.xyz
www.shvm.xyz
Недавно была история про стажера bytedance, который ломал коллегам запущенные трейнинг раны огромных моделей, портил чекпоинты, вносил маленькие изменения в скрипты ломающие пайплайны и занимался прочим креативным саботажем. Даже приходил на встречи по расследованию этих инцидентов, чтобы сбить всех с толку и узнать как ещё он может им навредить.
Я пропустил, но оказывается у истории есть продолжение! Этот парень использовал освободившиеся GPU, чтобы заниматься исследованиями и его работа получила Best Paper Award на NIPS, самой престижной конференции в ML. Теперь компания судится с ним.
Прикольная в рисерче атмосфера здоровой конкуренции.
https://x.com/jxmnop/status/1872671963753099546
Я пропустил, но оказывается у истории есть продолжение! Этот парень использовал освободившиеся GPU, чтобы заниматься исследованиями и его работа получила Best Paper Award на NIPS, самой престижной конференции в ML. Теперь компания судится с ним.
Прикольная в рисерче атмосфера здоровой конкуренции.
https://x.com/jxmnop/status/1872671963753099546
Статья, кстати:
https://openreview.net/forum?id=gojL67CfS8
Он просто чилловый парень который хотел генерировать аниме.
https://openreview.net/forum?id=gojL67CfS8
Он просто чилловый парень который хотел генерировать аниме.
OpenReview
Visual Autoregressive Modeling: Scalable Image Generation via...
We present Visual AutoRegressive modeling (VAR), a new generation paradigm that redefines the autoregressive learning on images as coarse-to-fine "next-scale prediction" or "next-resolution...
Я как-то и не заметил, что в этом году канал вырос х2!
Жаль, что tgstat не считает количество забаненых шлюхоботов.
Ещё очень приятно, что самый популярный пост это лонгрид, над которым я долго работал.
Спасибо вам всем👀 👀 👀
Жаль, что tgstat не считает количество забаненых шлюхоботов.
Ещё очень приятно, что самый популярный пост это лонгрид, над которым я долго работал.
Спасибо вам всем
Please open Telegram to view this post
VIEW IN TELEGRAM
# Целостность приятнее секса
Знакомая рассказала мне про свой опыт с кокаином. Она приняла кокаин когда была в баре, чувствовала агрессию и абсолютную уверенность в себе, поругалась с друзьями, плеснула бармену чем-то в лицо. Её выгнали из бара, а там тут как тут появился парень, чтобы её утешить и, конечно, отвезти к себе домой.
Я испытал невероятное отвращение к этому утешителю, обнял подругу и искренне посочувствовал.
Я никогда бы так не поступил на его месте. Это недостойно. Но пока ты стоишь весь такой важный со своими принципами хитрые ребята трахаются. Оно стоит того?
Подобное часто всплывает в контексте токсичных отношений. Например, такой сценарий. Недоступный партнер создаёт вокруг себя ореол невероятного. Рядом с ним жизнь бьет ключом, всегда что-то происходит, крутятся красивые и интересные люди, создаются запоминающиеся истории. Но взамен он в том или ином виде приносит страдания, потому что эта система работает пока такие как ты готовы вращаться в его орбите на четко определённой дистанции. Не слишком близко, не слишком далеко. В постоянном небольшом стрессе к которому нельзя привыкнуть.
Таким образом перед тобой ставится выбор: терпеть небольшие страдания и получить множество яркого или отказаться. Этот поезд поедет дальше с тобой или без тебя, со всеми своими зваными баллами и незабываемыми оргиями. В таком разрезе сложно просто сойти. Ведь да, ты немного страдаешь сейчас, но ты если уйдёшь, то многое потеряешь. Иначе ловушка бы не работала.
В обоих примерах на стороне достойных поступков никакой выгоды, только абстрактное "так правильно", а на другой вполне ощутимые и желанные вещи. Оба примера про секс ради наглядности, но можно заглянуть в любую сферу. Например, зачем писать в резюме всё как есть и сидеть без работы вместо того, чтобы всё выдумать и пить смузи в модном офисе?
Если верный выбор как будто требует героического самопожертвования, то вполне ожидаемо, что он является исключением. При достаточном количестве разочарований можно даже заключить, что мораль это всё сказки для лохов, а в реальном мире "или ты, или тебя."
Я лишь в этом году смог явно сформулировать для себя решение этой загадки. Просто ощущение целостности приятнее секса. Вообще приятнее всего на свете. Это особое чувство, которое возникает при достойном поступке, ни с чем не спутаешь. Благодаря нему несложно принять за аксиому, что проявление настоящего себя это само по себе правильно даже если из-за этого я теряю возможности, деньги, секс, уважение или что-то ещё.
Манипулятор может "утешить" сто женщин, но не получит и доли того удовольствия, которое ты испытываешь когда кому-то понравился настоящий ты.
Причём с каждым достойным выбором открывается больше путей к хорошему через притяжение к тебе других достойных людей и укрепление способности самостоятельно принимать решения. Манипулятор же каждый раз получив обманом секс чуть-чуть убеждает себя в своей дефективности: что не может получить любовь иным способом.
В общем, быть собой просто очень приятно. Да, может какой-то поезд уедет без тебя. Может быть ты покажешь себя настоящего и тебе сделают больно. Но гораздо страшнее не получить удовольствие от верного выбора.
Знакомая рассказала мне про свой опыт с кокаином. Она приняла кокаин когда была в баре, чувствовала агрессию и абсолютную уверенность в себе, поругалась с друзьями, плеснула бармену чем-то в лицо. Её выгнали из бара, а там тут как тут появился парень, чтобы её утешить и, конечно, отвезти к себе домой.
Я испытал невероятное отвращение к этому утешителю, обнял подругу и искренне посочувствовал.
Я никогда бы так не поступил на его месте. Это недостойно. Но пока ты стоишь весь такой важный со своими принципами хитрые ребята трахаются. Оно стоит того?
Подобное часто всплывает в контексте токсичных отношений. Например, такой сценарий. Недоступный партнер создаёт вокруг себя ореол невероятного. Рядом с ним жизнь бьет ключом, всегда что-то происходит, крутятся красивые и интересные люди, создаются запоминающиеся истории. Но взамен он в том или ином виде приносит страдания, потому что эта система работает пока такие как ты готовы вращаться в его орбите на четко определённой дистанции. Не слишком близко, не слишком далеко. В постоянном небольшом стрессе к которому нельзя привыкнуть.
Таким образом перед тобой ставится выбор: терпеть небольшие страдания и получить множество яркого или отказаться. Этот поезд поедет дальше с тобой или без тебя, со всеми своими зваными баллами и незабываемыми оргиями. В таком разрезе сложно просто сойти. Ведь да, ты немного страдаешь сейчас, но ты если уйдёшь, то многое потеряешь. Иначе ловушка бы не работала.
В обоих примерах на стороне достойных поступков никакой выгоды, только абстрактное "так правильно", а на другой вполне ощутимые и желанные вещи. Оба примера про секс ради наглядности, но можно заглянуть в любую сферу. Например, зачем писать в резюме всё как есть и сидеть без работы вместо того, чтобы всё выдумать и пить смузи в модном офисе?
Если верный выбор как будто требует героического самопожертвования, то вполне ожидаемо, что он является исключением. При достаточном количестве разочарований можно даже заключить, что мораль это всё сказки для лохов, а в реальном мире "или ты, или тебя."
Я лишь в этом году смог явно сформулировать для себя решение этой загадки. Просто ощущение целостности приятнее секса. Вообще приятнее всего на свете. Это особое чувство, которое возникает при достойном поступке, ни с чем не спутаешь. Благодаря нему несложно принять за аксиому, что проявление настоящего себя это само по себе правильно даже если из-за этого я теряю возможности, деньги, секс, уважение или что-то ещё.
Манипулятор может "утешить" сто женщин, но не получит и доли того удовольствия, которое ты испытываешь когда кому-то понравился настоящий ты.
Причём с каждым достойным выбором открывается больше путей к хорошему через притяжение к тебе других достойных людей и укрепление способности самостоятельно принимать решения. Манипулятор же каждый раз получив обманом секс чуть-чуть убеждает себя в своей дефективности: что не может получить любовь иным способом.
В общем, быть собой просто очень приятно. Да, может какой-то поезд уедет без тебя. Может быть ты покажешь себя настоящего и тебе сделают больно. Но гораздо страшнее не получить удовольствие от верного выбора.
Внезапный новогодний подарок: теперь я мультидисциплинарный чел!
Наконец-то была опубликована статья по политологии над которой я работал как над сторонним проектом ещё в Толоке. Все благодаря моему соавтору, который дотолкал это дело до публикации
Upd: все же решили разместить ссылку, вот.
Статья про то, как люди цензурируют свои убеждения в соцопросах подстраиваясь под большинство.
Только не покупайте её, не кормите эту индустрию.
Конечно такой сюр, что сделали всю работу в 2021, а опубликовали в самом конце 2024.
Наконец-то была опубликована статья по политологии над которой я работал как над сторонним проектом ещё в Толоке. Все благодаря моему соавтору, который дотолкал это дело до публикации
Upd: все же решили разместить ссылку, вот.
Статья про то, как люди цензурируют свои убеждения в соцопросах подстраиваясь под большинство.
Только не покупайте её, не кормите эту индустрию.
Конечно такой сюр, что сделали всю работу в 2021, а опубликовали в самом конце 2024.
Начинаем фестиваль милоты в комментариях. Что у вас самое клевое случилось за год?
Столько обзоров статей не написано, глав книги не выпущено, цифр на экране не увеличено, стендап сетов не подготовлено. Но у меня все равно был чудесный год.
Итогов не будет, но кое-что хочу упомянуть. Год не был богат на достижения: книга пока в процессе и много времени ушло на вылезание из кататонии. Но он был богат на личные события.
В этом году я принял решение, которое ребром поставило вопрос о том, что каким человеком я хочу быть. Никогда прежде мои принципы и ценности не подвергались такому испытанию, возможно никогда больше не подвергнуться. Такого распутья еще не было. Развитие персонажа могло пойти только по одной из двух непересекающихся веток. Оно мучило меня, натурально вгоняло в панику: как выбрать один путь и смириться с потерей всего, что мог дать второй? Но я постоянно думал о том, как мне повезло в жизни, что со мной в принципе такое случается. И какой я молодец, что помогаю такому случаться, конечно же. В результате я чувствую, что сделал верный выбор.
Было много встреч с друзьями, знакомств, поездок, путешествий, опытов, трудностей. Новая работа. Большой поворот в личной жизни. Прогресс в терапии.
Уххх, а ещё я посмотрел страшно много ситкомов! Всем советую Community.
Под конец года я чувствую, что живу свою жизнь. Непостоянную, неидеальную, странную, местами глупую. Но полную и очень интересную. Последний раз такое было ещё до войны.
Секс это конечно хорошо, но пробовали ли вы ощущение, что живёте своей уникальной и полной жизнью? Желаю, чтобы в 2025 году этого было как можно больше (чего этого из двух выбирайте на свой вкус, советую брать сразу всё).
И желаю всем шлюхоботам словить флип бита от космической радиации и сдохнуть
🐾
Итогов не будет, но кое-что хочу упомянуть. Год не был богат на достижения: книга пока в процессе и много времени ушло на вылезание из кататонии. Но он был богат на личные события.
В этом году я принял решение, которое ребром поставило вопрос о том, что каким человеком я хочу быть. Никогда прежде мои принципы и ценности не подвергались такому испытанию, возможно никогда больше не подвергнуться. Такого распутья еще не было. Развитие персонажа могло пойти только по одной из двух непересекающихся веток. Оно мучило меня, натурально вгоняло в панику: как выбрать один путь и смириться с потерей всего, что мог дать второй? Но я постоянно думал о том, как мне повезло в жизни, что со мной в принципе такое случается. И какой я молодец, что помогаю такому случаться, конечно же. В результате я чувствую, что сделал верный выбор.
Было много встреч с друзьями, знакомств, поездок, путешествий, опытов, трудностей. Новая работа. Большой поворот в личной жизни. Прогресс в терапии.
Уххх, а ещё я посмотрел страшно много ситкомов! Всем советую Community.
Под конец года я чувствую, что живу свою жизнь. Непостоянную, неидеальную, странную, местами глупую. Но полную и очень интересную. Последний раз такое было ещё до войны.
Секс это конечно хорошо, но пробовали ли вы ощущение, что живёте своей уникальной и полной жизнью? Желаю, чтобы в 2025 году этого было как можно больше (чего этого из двух выбирайте на свой вкус, советую брать сразу всё).
Please open Telegram to view this post
VIEW IN TELEGRAM
Прогрев: позже напишу про статью года в моем личном рейтинге. Это не O1/O3 и не text2video!
This media is not supported in your browser
VIEW IN TELEGRAM
Помимо нового года у меня недавно был день рождения, запоздало получил от друзей вот такой торт
Forwarded from Data Wondering
Dog Poop Compass: Bayesian Analysis of Canine Business
#DataWondering
Как и многие владельцы собак, во время прогулок с Аури я всё время наблюдаю один и тот же ритуал. Перед тем, как приняться за пёсьи дела, он каждый раз много-много раз крутится вокруг своей оси, пока не выстроится поудобнее.
В один прекрасный момент я начал делать скриншоты компаса, чтобы когда-нибудь оценить, а рандомно ли собака усаживается или нет? И вот, спустя много месяцев кропотливого сбора грязных (во всех смыслах этого слова) данных, у меня появился ответ.
Если вам тоже интересно узнать, как при помощи байесовских методов можно отвечать на такие важные жизненные вопросы, то добро пожаловать по ссылке: Dog Poop Compass
P.S. Статью опубликовали в TowardsDataScience! И теперь на меня еще можно подписаться и читать на английском на Substack.
#DataWondering
Как и многие владельцы собак, во время прогулок с Аури я всё время наблюдаю один и тот же ритуал. Перед тем, как приняться за пёсьи дела, он каждый раз много-много раз крутится вокруг своей оси, пока не выстроится поудобнее.
В один прекрасный момент я начал делать скриншоты компаса, чтобы когда-нибудь оценить, а рандомно ли собака усаживается или нет? И вот, спустя много месяцев кропотливого сбора грязных (во всех смыслах этого слова) данных, у меня появился ответ.
Если вам тоже интересно узнать, как при помощи байесовских методов можно отвечать на такие важные жизненные вопросы, то добро пожаловать по ссылке: Dog Poop Compass
P.S. Статью опубликовали в TowardsDataScience! И теперь на меня еще можно подписаться и читать на английском на Substack.
Forwarded from Карманная пепега (Maksim Artemev)
AI был ошибкой, выключайте
Как я писал раньше, наша инженерная команда состоит из четырех человек: три фуллтайм инженера и один PhD студент, который делает небольшой рисерч про видео модельки с нами. Над нами находился СТО, а внутри команды мы были довольно горизонтальные.
Неделю назад к нам присоединился новый тимлид с восхитительным послужным списком: четыре года стартапов, последние шесть лет в Adobe, рост с инженера до менеджера и лида команды.
Новый тимлид присоединился к нам и сразу же начался движ по организации. Если раньше мы делали ежедневные синки по 30 минут, то сейчас мы должны и созваниваться, и писать ежедневные планы в ноушен страничку с тем, что сделали за день и что сделаем за следующий. На каждую фичу стало нужно писать отдельный ноушен док и на каждое предложение по изменению фичи стало нужно писать отдельный ноушен док. В принципе, это я уже видел, стартап растет и организация меняется — неприятно, но ничего страшного.
Но сегодня произошел буквально AI-момент. Стартап, где я работаю, любит пробовать разный AI буллшит, поэтому натурально у нас появилась подписка на AI Software Engineer Devin — что-то типа чатгпт с доступом до апи ручек слака и гитхаба.
Я зашел замерджить свой PR и увидел это: (фотка). AI SWE Devin пришел в мой PR и начал оставлять очень полезные (нет) советы. Мне стало интересно - что же заставило бота пойти давать ценные комментарии? Оказалось, что наш новый тимлид пошел и подергал его отревьюить все открытые PR. Причем промпты выглядят как-то так: «Check for implementation issues. Add comments» или «Check for code quality and functionality. Suggest improvements to documentation».
Как вы думаете, может ли AI SWE Devin взять промпты «Suggest improvements» и «Add comments» и отказаться их выполнять если все и так хорошо? Нет, конечно, поэтому на всех открытых PR появились замечательные советы, не имеющие ничего общего с удобством или красотой кода.
Я считаю, что это ультимативный смешной AI момент, потому что новый тимлид даже месяца не продержался перед тем как начал аутсорсить свои задачки AI агенту. На комментарии которого, конечно же, будет отвечать AI агент с моей стороны. Зато сразу стало понятно, зачем нам теперь приходится не только созваниваться, а еще и писать текстом все. Потому что Notion AI отлично суммаризирует и передает, кто как поработал :)
Ждем, когда вместо тимлида на созвоны будет хоть AI аватар, сгенерированный синтезией, комменты писать Notion AI, код смотреть Devin, а в слаке отвечать простой советский чатгпт. С таким набором можно и 40 работ менеджера в долине взять и выйти на пенсию через год.
Как я писал раньше, наша инженерная команда состоит из четырех человек: три фуллтайм инженера и один PhD студент, который делает небольшой рисерч про видео модельки с нами. Над нами находился СТО, а внутри команды мы были довольно горизонтальные.
Неделю назад к нам присоединился новый тимлид с восхитительным послужным списком: четыре года стартапов, последние шесть лет в Adobe, рост с инженера до менеджера и лида команды.
Новый тимлид присоединился к нам и сразу же начался движ по организации. Если раньше мы делали ежедневные синки по 30 минут, то сейчас мы должны и созваниваться, и писать ежедневные планы в ноушен страничку с тем, что сделали за день и что сделаем за следующий. На каждую фичу стало нужно писать отдельный ноушен док и на каждое предложение по изменению фичи стало нужно писать отдельный ноушен док. В принципе, это я уже видел, стартап растет и организация меняется — неприятно, но ничего страшного.
Но сегодня произошел буквально AI-момент. Стартап, где я работаю, любит пробовать разный AI буллшит, поэтому натурально у нас появилась подписка на AI Software Engineer Devin — что-то типа чатгпт с доступом до апи ручек слака и гитхаба.
Я зашел замерджить свой PR и увидел это: (фотка). AI SWE Devin пришел в мой PR и начал оставлять очень полезные (нет) советы. Мне стало интересно - что же заставило бота пойти давать ценные комментарии? Оказалось, что наш новый тимлид пошел и подергал его отревьюить все открытые PR. Причем промпты выглядят как-то так: «Check for implementation issues. Add comments» или «Check for code quality and functionality. Suggest improvements to documentation».
Как вы думаете, может ли AI SWE Devin взять промпты «Suggest improvements» и «Add comments» и отказаться их выполнять если все и так хорошо? Нет, конечно, поэтому на всех открытых PR появились замечательные советы, не имеющие ничего общего с удобством или красотой кода.
Я считаю, что это ультимативный смешной AI момент, потому что новый тимлид даже месяца не продержался перед тем как начал аутсорсить свои задачки AI агенту. На комментарии которого, конечно же, будет отвечать AI агент с моей стороны. Зато сразу стало понятно, зачем нам теперь приходится не только созваниваться, а еще и писать текстом все. Потому что Notion AI отлично суммаризирует и передает, кто как поработал :)
Ждем, когда вместо тимлида на созвоны будет хоть AI аватар, сгенерированный синтезией, комменты писать Notion AI, код смотреть Devin, а в слаке отвечать простой советский чатгпт. С таким набором можно и 40 работ менеджера в долине взять и выйти на пенсию через год.
Forwarded from Старший Авгур
The Pitfalls of Next-Token Prediction
Статья: https://arxiv.org/abs/2403.06963
Видео: https://www.youtube.com/watch?v=9V0bfZqT1Yo
Олды несомненно помнят, что в ранних seq2seq моделях, основанных на рекуррентных нейронных сетях, существовало два режима обучения: teacher-forcing, где на каждом шаге генерации в качестве входов использовались реальные токены, и другой режим с использованием токенов, предсказанных текущей версией модели. С появлением трансформеров и их параллельного обучения все стали использовать teacher-forcing. Авторы статьи возвращаются к этому вопросу.
🔹Задача
Авторы придумали простую синтетическую задачу: поиск пути между двумя вершинами в деревьях очень специфичной структуры, а именно в таких, где есть одна центральная вершина и несколько цепочек, исходящих из этой центральной вершины. Пример такого дерева (степень центральной вершины = 2, длина цепочек = 5):
Условия задачи:
— Степень центральной вершины и длина цепочек фиксированы для всех деревьев в обучающей и тестовой выборке.
— Путь всегда начинается в центральной вершине.
— Путь всегда заканчивается в одном из листьев.
Вход для задачи выглядит как случайно перемешанный набор рёбер дерева, плюс начало и конец пути (после "/"):
Выход выглядит как сам путь:
Эту задачу мы решаем какой-нибудь моделью, которая умеет работать с последовательностями, например трансформером или рекуррентной сетью в авторегрессионном режиме (генерация токенов слева направо, как в языковых моделях).
🔹Эмпирическая часть
— Авторегрессионные модели не справляются с решением этой задачи даже для деревьев с фиксированной структурой. Потому что сложно понять в какую сторону идти от центральной вершины.💀
— При развороте пути задача успешно решается авторегрессионными моделями. Это логично, потому что это гораздо проще: вы просто поднимаетесь по родителям, пока не найдёте центральную вершину.📈
— Если во время обучения маскировать уже сгенерированную часть пути, модели также успешно решают задачу. Это странно, потому что мы делаем задачу сложнее для модели, заставляя её генерировать весь путь сразу. Но каким-то образом на такой версии задачи модель учится, а на оригинальной — нет.😱
Я потратил пару вечеров и воспроизвёл это в Колабе: ссылка. Воспроизводил для 2-5 деревьев, то есть ровно таких, как в примере выше. Код писал с нуля, но опираясь на их Гитхаб. Всё получилось, как написано в статье: усложнение задачи приводит к возможности её выучивания. Технически это выглядит просто как маскирование части input_ids.
🔹Про предсказание следующего токена
Щепотка "соломенного чучела": распространенная критика языковых моделей состоит в том, что они являются лишь "стохастическими попугаями", способными только предсказывать следующий токен. Считается, что из-за этого они не могут эффективно планировать или исправлять ошибки.
Однако авторы статьи предполагают, что основная проблема не в механизме предсказания следующего токена как таковом. Проблема — в teacher forcing'е, то есть в том, что во время обучения у модели нет необходимости планировать и пытаться сформулировать решение в активациях. И ведь большинство современных моделей обучалось именно с использованием этого метода.
🔹Ограничения
— Эмпирическая часть работает при фиксированном наборе гиперпараметров, и сломав их, можно сломать 2 и 3 наблюдение. Это прежде всего оптимизационная задача. Однако ни у меня, ни у авторов не получилось сделать модель, которая была бы контрпримером для первого наблюдения.
— У авторов нет никакого теоретического обоснования наблюдений. Как нет и алгоритма, по которому сеть считает путь. Мне кажется, что тут есть простор для творчества и механистической интерпретации.
Статья: https://arxiv.org/abs/2403.06963
Видео: https://www.youtube.com/watch?v=9V0bfZqT1Yo
Олды несомненно помнят, что в ранних seq2seq моделях, основанных на рекуррентных нейронных сетях, существовало два режима обучения: teacher-forcing, где на каждом шаге генерации в качестве входов использовались реальные токены, и другой режим с использованием токенов, предсказанных текущей версией модели. С появлением трансформеров и их параллельного обучения все стали использовать teacher-forcing. Авторы статьи возвращаются к этому вопросу.
🔹Задача
Авторы придумали простую синтетическую задачу: поиск пути между двумя вершинами в деревьях очень специфичной структуры, а именно в таких, где есть одна центральная вершина и несколько цепочек, исходящих из этой центральной вершины. Пример такого дерева (степень центральной вершины = 2, длина цепочек = 5):
8 ← 1 ← 5 ← 4 ← 3 → 0 → 2 → 6 → 7
Условия задачи:
— Степень центральной вершины и длина цепочек фиксированы для всех деревьев в обучающей и тестовой выборке.
— Путь всегда начинается в центральной вершине.
— Путь всегда заканчивается в одном из листьев.
Вход для задачи выглядит как случайно перемешанный набор рёбер дерева, плюс начало и конец пути (после "/"):
3 → 4 | 5 → 1 | 4 → 5 | 0 → 2 | 3 → 0 | 1 → 8 | 6 → 7 | 2 → 6 / 3 7
Выход выглядит как сам путь:
3 → 0 → 2 → 6 → 7
Эту задачу мы решаем какой-нибудь моделью, которая умеет работать с последовательностями, например трансформером или рекуррентной сетью в авторегрессионном режиме (генерация токенов слева направо, как в языковых моделях).
🔹Эмпирическая часть
— Авторегрессионные модели не справляются с решением этой задачи даже для деревьев с фиксированной структурой. Потому что сложно понять в какую сторону идти от центральной вершины.
— При развороте пути задача успешно решается авторегрессионными моделями. Это логично, потому что это гораздо проще: вы просто поднимаетесь по родителям, пока не найдёте центральную вершину.
— Если во время обучения маскировать уже сгенерированную часть пути, модели также успешно решают задачу. Это странно, потому что мы делаем задачу сложнее для модели, заставляя её генерировать весь путь сразу. Но каким-то образом на такой версии задачи модель учится, а на оригинальной — нет.
Я потратил пару вечеров и воспроизвёл это в Колабе: ссылка. Воспроизводил для 2-5 деревьев, то есть ровно таких, как в примере выше. Код писал с нуля, но опираясь на их Гитхаб. Всё получилось, как написано в статье: усложнение задачи приводит к возможности её выучивания. Технически это выглядит просто как маскирование части input_ids.
🔹Про предсказание следующего токена
Щепотка "соломенного чучела": распространенная критика языковых моделей состоит в том, что они являются лишь "стохастическими попугаями", способными только предсказывать следующий токен. Считается, что из-за этого они не могут эффективно планировать или исправлять ошибки.
Однако авторы статьи предполагают, что основная проблема не в механизме предсказания следующего токена как таковом. Проблема — в teacher forcing'е, то есть в том, что во время обучения у модели нет необходимости планировать и пытаться сформулировать решение в активациях. И ведь большинство современных моделей обучалось именно с использованием этого метода.
🔹Ограничения
— Эмпирическая часть работает при фиксированном наборе гиперпараметров, и сломав их, можно сломать 2 и 3 наблюдение. Это прежде всего оптимизационная задача. Однако ни у меня, ни у авторов не получилось сделать модель, которая была бы контрпримером для первого наблюдения.
— У авторов нет никакого теоретического обоснования наблюдений. Как нет и алгоритма, по которому сеть считает путь. Мне кажется, что тут есть простор для творчества и механистической интерпретации.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Техножрица 👩💻👩🏫👩🔧
161821.gif
1.2 MB
Атмосфера в комментариях любого ML паблика без автоматической модерации через 0.0001 наносекунду после поста в последние несколько дней