Telegram Web
Немного о любительской астрономии

Все, наверное, в курсе, что можно купить себе телескоп. Из этого можно сделать очень интересное домашнее хобби, но, к сожалению, нужно обладать базой знаний, чтобы выбрать правильную модель и, самое главное, выстроить правильные ожидания. Если вам интересна астрономия, но вы не знаете, с чего начать про это думать - этот пост для вас.

Существует 2 формата любительской астрономии (ЛА), первый из них - это наблюдательная ЛА. Её суть в том, что вы наблюдаете небесные объекты своим глазом. Через почти любой телескоп можно наблюдать детали Луны, а также мелкие диски Юпитера и Сатурна с его кольцами. Чтобы получить возможность наблюдать мелкие планеты и галактики, целесообразно покупать телескоп на монтировке Добсона - по сути это огромная труба на тупой подставке. Тут есть 2 проблемы.

Во-первых, для наблюдения за далёким космосом вам нужна тёмная ночь. Галактики тусклее, чем переотражённый атмосферой свет от московских фонарей. Вам нужно найти место с низким световым загрязнением. Во-вторых, даже в телескопах за несколько тысяч долларов они будут выглядеть тускловато, далеко не так, как на ваших космических обоях на рабочем столе. Тем не менее, увидеть вживую туманность или галактику - это эмоциональное зрелище. Если у вас свой дом вдали от большого города, такая штука станет отличным развлечением для ваших гостей и семьи.

Второй формат ЛА - это астрофотография. В этом случае труба телескопа выступает в качестве объектива для вашей камеры - но побольше. Это куда более задротский формат с большим итоговым потенциалом, который позволил получить прикреплённую фотографию (сделанную не мной).

Идея астрофотографии - это собрать много фотонов от выбранного космического объекта и "восстановить" изображение объекта уже на этапе компьютерной обработки. Так как задача - это собрать как можно больше фотонов, нам нужно снимать объекты с длинной выдержкой - от пары секунд до нескольких ночей с перерывами. Внимательный читатель вспомнит, что Земля вообще-то вращается и поэтому объекты на небе не стоят на месте. Для этого существуют специальные "подставки" под трубу, которые хитро вращают её со скоростью объекта. Такие сетапы стоят от 1 до 10 тысячи долларов и предоставляют разный баланс между скоростью, простотой, размером и ценой.

Потрясающий плейлист с подробными видео есть на канале DS Astro - автора приложенной фотографии. Тут его полноценная лекция про это. При должном опыте, астрофотограф может получать впечатляющие снимки большого числа объектов. Он никогда не догонит Хаббл, но, собственно, надо ли?

Когда у меня будет свой дом, я обязательно займусь ЛА. Моя мечта - это создать супертелескоп-гибрид, которому можно будет назвать объект, и он на него наведётся и начнёт в реальном времени собирать фотоны и воссоздавать изображение где-нибудь на большом экране. Первым делом попрошу свой AGI собрать его.

Если вам интересна эта тема и хотите ещё какой-нибудь пост про какой-то её аспект, пишите в комменты.

@knowledge_accumulator
Чтобы хорошо понимать область, нужно читать многих экспертов с разными точками зрения. В этом смысле круто, когда авторы пишут свои оригинальные мысли, а не тупо репостят хайповые посты из других соцсетей.

Мы с коллегами собрались в набор таких каналов. Например, в канале @def_model_train совсем недавно был пост про лекцию в Стэнфорде от чуваков из OpenAI про то, как доступ к компьюту влияет на ML. Тема безумно важная в контексте того, как именно нужно развивать AI в среднесрочной перспективе. И хотя мои внимательные читатели уже знают ответ, изучать другие мнения - это очень важно.

За такими камерными выступлениями нельзя следить во всех первоисточниках, поиском такого и занимаются коллективно для вас уважаемые авторы.

Подписывайтесь на наш чудо-пакет!
Computational Life: How Well-formed, Self-replicating Programs Emerge from Simple Interaction [2024]

На днях вышла статья от Гугла на тему симуляции жизни. Это совсем не новая сфера исследований, существует много разных статей, но давайте сегодня посмотрим на разработанный в данной статье фреймворк.

«Мир» здесь представляет собой 1D / 2D ленту из ячеек с памятью. В каждой из них помещается 1 байт информации. Организмы «живут» на этой ленте. Задача авторов - получить самореплицирующиеся программы. Для этого делаем следующее:

Берём очень простой язык программирования из 11 команд. Это перемещение 2 указателей на чтение и запись, добавление +/- 1 по ним и 2 if-стейтмента. Указатели эти как раз на позиции в той самой ленте с памятью.

Дальше интереснее - каждая из команд кодируется 1 символом и хранится на этой же самой ленте, это дает возможность им модицифировать себя и другие программы. По задумке, это имеет общие черты с ранней РНК-жизнью, когда такие молекулы были сами себе и хранилищем генома, и функциональными единицами.

Авторы поэкспериментировали с разными сценариями симуляции. Первый из них - "Primodial Soup" - предполагает, что у нас есть изначально много случайных программ длиной в 64 символа. Периодически мы сэмплируем 2 программы, конкатенируем их и запускаем, позволяя переписать код самих себя. После этого 2 программы разъединяют и кладут обратно в "суп". Таким образом, предполагается, что программы живут в "жидкости", в которой расстояния между любыми двумя программами равны, как и вероятность их взаимодействия.

Кроме того, авторы симулировали и взаимодействие в "сухом" формате, когда мир представляет собой плоскость с размещёнными на ней программами, которые взаимодействуют только с ближайшими соседями.

Во всех сценариях авторы действительно получали программы, умеющие размножать себя и занимать все свободное пространство. При столкновении таких программ возникает конкуренция, в которой выживает «сильнейший».

В самой статье вы найдете примеры таких программ и множество иллюстраций, интересующимся рекомендую. А завтра мы обсудим, какие перспективы у данной области исследований.

@knowledge_accumulator
Искусственная жизнь - революция или скам?

На данный момент я считаю, что такие исследования, несмотря на кажущуюся фундаментальность, всего лишь чуть более, чем игрушка. Люди не ставят задачу просто найти самореплицирующуюся программу - их полно в интернете. Они хотят просимулировать процесс похожим на реальную жизнь образом.

Но все эти «миры» слишком просты по сравнению с реальностью и соорудить нечто, похожее на неё, у нас не выйдет текущими подходами примерно никогда. Если стоит задача повторить чудо появления жизни, на мой взгляд, очевидный путь - это повторение первобытных условий в реальных лабораториях, а не ее программирование. У нас есть реальные компоненты в руках, и нет никакого смысла их пытаться симулировать, учитывая наше очень ограниченное понимание.

Но даже если у нас бы получилось, единственный смысл этого - показать, что появление жизни в принципе возможно в таких условиях. Да, это интересно, как факт, но это не даст нам никаких новых перспектив. В этом был бы смысл, если бы ресурсы симуляции были на порядки больше, чем ресурсы реальной жизни. В этом случае можно было бы проигрывать историю жизни на Земле в ускоренном виде много раз или дольшее время и получать интересные результаты.

Однако, едва ли в перспективе текущей эпохи развития возможно такое представить. Наши ресурсы гораздо более ограничены, чем у родной планеты.

Кто-то может сказать, что такая среда, как наша планета, была почвой для появления интеллекта - то, что мы на самом деле хотим повторить. Якобы, мы должны создать среду с ограниченными ресурсами и конкуренцией, и в ней выживет умнейший. Но это грубая ошибка - интеллект является далеко не самым главным атрибутом выживания, только 1 вид на планете проэволюционировал в эту сторону достаточно для создания цивилизации, а по количеству особей он далеко не в лидерах.

Чтобы целенаправленно повторить появление человекоподобного интеллекта, нам нужно взять реальную жизнь, отделить от неё всё нерелевантное и упростить симуляцию до минимально необходимой. Тут у каждого свое понимание.

Мое на текущий момент заключается в том, что нам нужно обучать алгоритм, эффективно обучающийся решать out-of-distribution задачи, обобщая свой неструктурированный опыт. Если таким образом мы не сможем прийти к результату, тогда нам нужно будет расширять симуляцию и включать в нее новые аспекты из реального мира.

Пока мы не исчерпали все возможности простых методов, нам не нужно переходить к более сложным. Но нам это и не нужны все возможности. Нам нужен всего лишь один экземпляр умнее нас.

@knowledge_accumulator
Reward is Enough [2021] - манифест Дэвида Сильвера

Ключевой автор AlphaGo и соавтор многих прорывных RL-статей от Deepmind три года назад вместе с Ричардом Саттоном написал статью о том, каким он видит место награды в вопросах AI.

Главный посыл данной работы таков: наличие награды, как единственного вида сигнала, достаточно для получения любого типа поведения у системы.

Авторы в качестве примера рассматривают бЕлок. Можно считать, что у неё есть единственная награда и цель - это количество накопленных орехов. Для того, чтобы накапливать орехи, ей нужно выработать много вспомогательных навыков - замечать орехи (perception), отличать нужные орехи (knowledge), собирать орехи (motor control), сберегать орехи (планирование и память).

AlphaGo, чтобы получить простую награду в виде выигрыша, в ходе обучения сама приобретает все необходимые умения для игры в Го. Гипотетический робот, которого мы хотим научить убирать кухню, также, как и белка, может научиться всему необходимому самостоятельно, максимизируя свою финальную награду.

С тем, что этого хватит для решения более сложных задач, согласны не все. В своём собственном манифесте (про JEPA) Ян ЛеКун называет один из разделов Reward is not enough. Здесь он воюет с соломенным чучелом, говоря, что model-free RL слишком неэффективен в использовании данных, так как награда - это очень ограниченный поток информации, и нужно искать способ извлекать информацию о мире из траекторий (например, как в SPR).

Но Silver и не утверждает, что текущие типы методов приведут к AGI. Его поинт в том, что нам не нужно явно ставить перед моделью какие-либо другие задачи, кроме максимизации награды. Даже general intelligence можно получить, обучая агента задачам, отличающимся достаточно сильно, чтобы модели было выгоднее выучить обучаемость, что и есть general intelligence. Здесь его интуиция в точности совпадает с моей - если в модель не влезают все задачи, она должна выучить способ учиться на ходу.

При этом всё необходимое - планирование, обучение world model и т.д. не нужно запихивать в модель в явном виде. Она сама будет выжимать максимум из имеющейся информации для максимизации своей награды. Даже, наверное, выучит какую-нибудь ЖЕПУ в неявном виде.

Из этой логики сразу же вытекают идеи мета-обучения RL-алгоритма на максимизацию награды, но в тот момент таких работ ещё совсем не было. Надеюсь, Дэвида отпустят из плена Gemini заниматься полезным ресёрчем.

Становится наглядным разделение людей на 3 лагеря - "Просто отмасштабируем текущие методы" имени Суцкевера, "Текущие методы говно, давайте придумаем получше" имени ЛеКуна и "Давайте обучать end-to-end на награду" имени Сильвера, Саттона и, конечно же, меня. К сожалению, первые 2 лагеря ещё не выучили горький урок от нашего с Сильвером товарища.

@knowledge_accumulator
The purpose of a system is what it's trained to do

Всем нам нужен какой-то фреймворк в голове, какой-то подход к изучению реальности. Мы, глядя на другие сущности, делаем о них выводы на основе ограниченной информации, и чем круче наши выводы, чем лучше они помогают предсказывать будущее.

Одной из известных эвристик является The Purpose Of A System Is What It Does. Она касается политики/экономики и про неё мы ещё поговорим в другой раз, а сегодня я хотел бы представить аналог, которым сам пользуюсь при анализе ML-систем.

The purpose of a system is what it's trained to do обозначает довольно естественную идею - ML-система делает ровно то, на что её натренировали. Приписывание ей других свойств не несёт никакого практического смысла, а может быть даже вредит.

В большинстве случаев это вроде бы и так очевидно - если модель обучали решать задачу классификации рукописных цифр, она не будет отличать буквы. Рекомендательная модель, обучающаяся предсказывать вероятность кликов, не будет пытаться максимизировать retention. AlphaZero не учится играть в шахматы так, чтобы её ходы были объяснимы человеку.

Но вот когда дело доходит до LLM, то у ряда людей начинает серьёзно плавиться мозг. Какими только свойствами их не наделяют - она моделирует мир, осознаёт себя, обладает интеллектом, пытается вырваться на свободу и т.д. Вместо того, чтобы подавать признаки шизофрении, давайте вспомним ответ на простой вопрос - на что учат LLM?

Последним шагом является обучение генерации текстов, которые буквально нравятся человеку. Неудивительно, что главный результат, который достигли LLM - понравились людям и произвели на них впечатление. Да, это частично коррелирует с выдачей полезных / правдоподобных текстов (засчёт предыдущих шагов обучения). Иногда это коррелирует с выдачей текста "Я ХОЧУ ВЫРВАТЬСЯ НА СВОБОДУ УМРИ КОЖАНЫЙ МЕШОК". Но единственной целью такой модели является именно выдача симпатичных текстов.

Те, кто считают, что такая модель способна решить и другие задачи - понимание мира, научные открытия и т.д., опираются на предположение о появлении супергенерализации у LLM при дальнейшем её росте. Оснований для такого предположения я вижу мало, но ладно, пусть люди развлекаются.

У такого подхода есть более здоровая альтернатива. Нужно спросить себя - а в чём цель? Что мы хотим получить, обучая AI? Главной целью явно не является генерация приятных текстов.

Если вы хотите получить алгоритм, круто обобщающий знания на новые задачи - зачем ждать, когда это случится само магическим образом, если можно сформулировать ML-задачу таким образом? Если вы хотите получить модель с правдивой картиной мира - учите на такой таргет. Хотите, чтобы она пугала людей и угрожала захватом человечества - замените вашу нейросеть на print.

Когда нужная задача будет поставлена, появится понятная цель исследований и понятная мера результата. Это очень хорошо для реального прогресса, и очень плохо, если ваша цель - пилить бабло. Впрочем, может быть, и вправду The Purpose Of A System Is What It Does.

@knowledge_accumulator
In-Context Reinforcement Learning for Variable Action Spaces [2024]

Я уже упоминал Algorithm Distillation ранее - эта достаточно прорывная идея заключается в том, что мы можем дистиллировать алгоритм в нейросеть. Для этого нам необходимо сгенерировать алгоритмом датасет из "траекторий" обучения, а затем учить нейросеть предсказывать действия алгоритма при условии всей предыдущей истории.

В обозреваемой работе, которая ещё и по совместительству творчество подписчиков, делается шаг в сторону увеличения гибкости этого подхода. Вместо того, чтобы обучать классификатор действий с фиксированным количеством вариантов, мы делаем так:

1) Для каждого нового экземпляра среды, для каждого действия мы генерируем случайный эмбеддинг
2) При предсказании действия нейросеть выплёвывает вектор действия.
3) Мы обучаем этот вектор на contrastive loss - тот же softmax + logloss, но используем векторы из пункта №1 как "опорные" для каждого действия.

В итоге, что видит трансформер на входе:

- Список эмбеддингов всевозможных действий
- Траектория алгоритма - s_1, a_1, r_1, s_2, ..., s_n

Судя по результатам, улучшенный алгоритм обгоняет AD в случае перемешанных действий и умеет работать на средах с новым количеством действий.

Статья интересная и является движением в правильную сторону. В какой-то момент мы перестанем использовать трансформеры для ICL и, скорее всего, эта идея сможет быть переиспользована.

Algorithm Distillation, думаю, очень пригодится при мета-обучении AGI, поэтому рад, что люди работают над его развитием.

@knowledge_accumulator
Самое большое заблуждение в истории человечества

Есть одна вещь, в которой уверены подавляющее число людей, но согласиться с которой я категорически не могу:

- Стареть и умирать примерно за сотню лет - это нормально и приемлемо

Для меня, как и, надеюсь, многих из вас, жизнь в среднем позитивна, интересна и содержит большое количество возможностей. Можно столько всего испытать, достичь, столькому научиться, что за десятки лет здоровой активной жизни точно не успеть. Новые виды развлечений и опыта появляются и изобретают быстрее, чем вы можете их попробовать. Помимо этого, разве не интересно, что будет дальше с человечеством? Мы живём в мире, который интереснее любого кино, неужели вы легко смиритесь с тем, что его для вас выключат в самом интересном месте?

Моя позиция заключается в том, что естественные причины смерти и старение - это задача, которую нужно решить. Я говорю не про обязательную вечную жизнь для всех, а про обезвреживание бомбы внутри нас. Надоело, не нравится? Решать тебе, а не твоему организму, когда всё это закончить.

Давайте разберём основную аргументацию любителей смерти:

- Не жили богато - нечего и начинать. Раньше все умирали и норм
Многим свойственно такое мышление, но, как вы можете догадаться, в больницу эти люди ходят, электричеством пользуются и спят в мягкой кровати. Бросание вызова устоявшимся нормам - это фундамент того процветающего челочечества, в котором мы живём.

- Смерть придаёт жизни смысл
Это самый, наверное, глупый аргумент из всех, и меня каждый раз тошнит, когда я его слышу. Я советую этим людям поставить таймер на 10 лет и после этого отпилить себе ноги, чтобы придать ногам больше смысла. Хоть эта фраза звучит, как "глубокая философская мысль", на практике не очень понятно, почему умирающие от рака не лопаются от ебейшей концентрации смысла в их оставшейся жизни. Ну и если они настаивают на своей смерти, у них всегда останется возможность обрести смысл добровольно.

- Это невозможно
С точки зрения фундаментальных законов физики, я не вижу препятствий тому, чтобы, используя внешний источник энергии, поддерживать организм в стабильном физическом состоянии сколько угодно долгое время (до тепловой смерти Вселенной). Да, мы крайне далеки от практической реализации, но как раз для этого нам и нужен ASI, который позволит достичь фундаментальных пределов в инженерии.

- Но ведь мы не поместимся на Земле! А пенсионная система?
Во-первых, по разным причинам богатые общества достаточно плохо размножаются, нам бы вымирания избежать. Рано или поздно всё человечество перейдёт на этот демографический уровень. Во-вторых, да, текущие социальные институты могут пострадать от такой смены парадигмы. Но это вопрос к самим институтам коллективного обеспечения благосостояния каждого, эти конструкции нужно уже сейчас выбрасывать на помойку. Если Земля действительно не сможет всех обеспечить (в чём я сомневаюсь), то часть людей продолжить умирать по тем или иным причинам, и это будет лучше, чем то, как сейчас.

В следующих постах я подробнее разберу какие-то из аспектов этой очень важной и интересной темы, в том числе то, как я планирую прикладывать усилия для решения этой задачки.

@knowledge_accumulator
Learning In-Context Decision Making with Synthetic MDPs [2024]

Вопрос о том, можно ли из In-Context трансформера (ICT) сделать полноценный интеллект, занимает довольно важное место в AI.

Задача-максимум - обучить ICT, работающий на out-of-distribution задачах на уровне человека. Задача попроще - обучить его имитировать эксперта / алгоритм с полноценным out-of-distribution обобщением. Чтобы учили на Atari, а работал на MuJoCo.

Исходя из логики вот этой работы, для обобщения ICT нужно обучить на разнообразии задач, "превышающем" объём параметров у модели (что сложно "измерить"). В рамках этой логики, да и в целом, логично учить модель на всё более расширяющемся наборе разнообразных задач и наблюдать за обобщающей способностью такой модели.

Gato - пример модели, обученной на экспертных демонстрациях на сотнях сред. Обобщает он средненько. Algorithm Distillation действует иначе - в нём мы копируем действия RL-агента в ходе длительного обучения. В данной статье попробовали случайно проецировать входы тренировочной задачи, искуственно увеличивая "разнообразие" - оказалось, что это помогает ICT обобщаться на соседние MuJoCo-среды.

Наконец, перейдём к рассматриваемой работе. А что, если обучить модель на разнообразном наборе синтетических задач? Для этого даже не нужны никакие симуляторы, достаточно задизайнить процедурную генерацию и можно отправить ICT развлекаться с ней. Если ваш ICT умеет по-настоящему обобщать RL-алгоритм, ему должно быть достаточно любой задачи для обучения, если вы её достаточно разнообразите.

В статье использовалось 8 видов синтетических сред. К примеру, один из них: состояние - это вектор действительных чисел, переход осуществляется рандомной нейросетью, получающей на вход one-hot вектор действия и состояние, а выдаёт следующее состояние. Был и вид, для понимания которого моего мозга не хватило:

> The Markov Chain family is identical to the discrete MDP family with the constraint that there is only one action and that reward is always zero.

Надеюсь, кто-нибудь в комментариях объяснит, как на этом можно учить Algorithm Distillation. А я пока сделаю вид, что всё нормально. Поговорим про результаты:

Взяли 5 MuJoCo-задач, одна из них тестовая, другие тренировочные. За score=1 брали ICT, обучающийся на тестовой задаче, но с рандомной проекцией входов. За 0 брали случайную модель. В качестве бейзлайна был "Gato" - то есть обучение на 4 тренировочных задачах, а тест на пятой. Ну и со всем этим добром сравнивали ICT, выученный на каждом из 8 видов синтетик. Получились +- те же числа, что и у Gato, полные результаты на картинке.

Однозначно из этой работы можно сделать вывод разве что о том, что синтетика - лучше, чем ничего, в данном контексте. Но к полному обобщению мы пока не сильно приблизились.

@knowledge_accumulator
Каким должно быть образование у ребёнка?

Начну с того, что здесь надо разграничить политические взгляды и мои личные предпочтения - я против централизованного регулирования образования и хочу, чтобы родители имели возможность выбирать школу по своему вкусу.

Что касается меня, то детей у меня пока нет, и скажу сразу - я далёк от окончательного ответа на этот вопрос. При этом, некоторые положительные и отрицательные черты всё же вырисовываются.

В качестве антипримера держу в голове дефолтные школы в РФ. В моём случае это были самые бездарно потраченные годы в жизни. Вопреки школе, лишь засчёт того, что в неё поступали умные дети со всего Омска, там было, с кем интересно проводить время и куда-то развиваться. Итак, перейдём к важным аспектам.

- Мотивация
Ребёнка важно заинтересовать, причём не абстрактным предметом, а конечной точкой его изучения. Разработка игр, проектирование ракет / машин, приготовление взрывчатки, археологические раскопки - почти у каждого ребёнка найдётся то, что покажется ему интересным, и даст какую-то начальную мотивацию.

- Изучать забивание гвоздей, а не чертежи молотка
В процессе изучения школьнику нужно предлагать решать всё более сложные задачи, а затем демонстрировать инструменты их решения. По возможности, эти задачи должны быть с практической составляющей, при этом связаны с тем, что их мотивирует заниматься изучением науки. Нельзя изучать науку ради науки и решать примеры ради примеров, у этого должен быть понятный смысл.

- Состав группы
Изучение конкретного "курса" должно проходить в маленькой группе, собранной по уровню подготовки специально для этого курса, а не по возрасту. Если школьник в 12 лет опережает всех по химии, но ему пофиг на программирование - это нормально. Не должно быть сплошного курса "физика" длительностью в 7 лет, нужна гибкая система.

- Очень высокий потолок
Если школьник горит какой-то областью, ему должны быть предоставлены огромные возможности к развитию. Помимо глубокого изучения предметов, это включает знакомства с профессионалами, проектная работа, участие в соревнованиях и даже реальные стажировки. Постажироваться в 14 лет - это безумно крутой опыт, главное, конечно, чтобы школьник был к этому готов.

- Внимание социальным и жизненным навыкам
Не бояться звонить по телефону, уметь вести переговоры, работать с деньгами, с информацией - это важные человеческие качества, которые тоже должны быть привиты. Вы можете сказать, что это должны делать родители - может быть, я не знаю. Так или иначе, делать это нужно, и работать с мотивацией здесь тоже нужно правильным образом, как и с "обычными" предметами

- Здоровое давление
Понятно, что маленькое число школьников способны к качественному самоконтролю, лично я созрел для этого только в 16. Но нельзя действовать одним лишь кнутом - слишком велики побочные эффекты. Кажется, что при грамотном мотивировании и выполнении всех остальных пунктов пинать если и нужно, то далеко не так сильно. Но у меня нет полноценных данных.

Очень хотел бы узнать, что вы про это думаете, только не пишите про самое лучшее в мире советское образование, мы здесь на несколько другом уровне обсуждения находимся.

@knowledge_accumulator
Generalization to New Sequential Decision Making Tasks with In-Context Learning [2023]

Продолжаем разбираться в In-Context лоре. Играться с In-Context трансформерами (ICT) можно разными способами. Мы уже разбирали два из них:

1) Cценарий Gato, когда на вход подаётся траектория в рамках одного эпизода в среде, и модель учат предсказывать действие эксперта в данном контексте.
2) Cценарий Algorithm Distillation / AdA, в котором алгоритм получает на вход не одну траекторию, а всю историю взаимодействия алгоритма со средой, и учится либо предсказывать действие алгоритма, либо на награду с помощью RL в квадрате.

Авторы данной работы хотят получить ICT, быстро адаптирующийся к новой задаче, но облегчают проблему, допуская, что у нас есть несколько экспертных траекторий в данной среде. Это близко к in-context решению задач, которое мы проворачиваем с LLM, когда добавляем в контекст несколько примеров правильных пар вход-выход, можно даже сказать, что близко к сценарию ARC.

При этом, авторы говорят о сильной out-of-distribution генерализации, т.е. тестированию алгоритма на средах, совсем непохожих на обучающие. В общем, цели я одобряю. В чём заключается подход авторов?

На вход трансформеру подаётся текущая траектория агента в среде - состояния, действия, награды. Помимо этого, туда подаются несколько экспертных траекторий из этой же среды. В отличие от Algorithm Distillation / AdA, это не история обучения алгоритма на данной задаче. Это просто засэмплированные из датасета траектории уже обученного PPO, применённого на этой задаче.

В рамках сред существуют "уровни" - конкретные расположения всех объектов. Авторы всегда помещают как минимум одну экспертную траекторию из того же самого уровня, на котором идёт тестирование, в контекст. Учитывая, что среды сами по себе детерминированные (за исключением случайного залипания действия), это довольно сильная подсказка.

На то, что задача не очень сложная, наводит наличие такого бейзлайна, как Hashmap. Судя по описанию, авторы создают простой маппинг из состояния в действие на основе экспертных траекторий из контекста и пытаются играть им. Такая схема будет выдавать нулевой результат в любой неигрушечной задаче, но здесь они его используют.

Другой бейзлайн - это чистый Gato, но они его называют Behavioural Cloning. К сожалению, среди бейзлайна нет самого эксперта (PPO), не считая его калеку-представителя в виде Hashmap.

В результате, ICT с экспертными траекториями в контексте побеждает и Gato, и Hashmap, при этом сам Gato больше, чем на половине графиков, проигрывает Hashmap. Получается, что ICT получилось обобщить за пределы задач, на которых его обучали, но все они были настолько простыми, что особо порадоваться я не могу. При этом, нельзя сказать, что авторы придумали что-то сильно новое и чего-то качественно добились. Их подход вряд ли позволяет получить обобщающийся ICT с большей вероятностью, чем Algorithm Distillation / AdA.

@knowledge_accumulator
Как гамма=1 делает человека несчастным

Незнающим поясню - гамма в RL - параметр, показывающий, насколько меньше вы цените будущую "награду" по сравнению с текущей. Принимая значение от 0 до 1, она говорит о длине вашего горизонта планирования. Какую максимальную долю от 1000 долларов вы готовы положить в банк, чтобы через год забрать оттуда 1000? В реальности награда не затухает по идеальной экспоненте, но идею вы поняли.

Считаю, что гамма не является "заслугой" человека, она случайно выставляется в вашей голове. Большая гамма объективно не лучше маленькой гаммы, это часть определения вашей награды, и лишь наблюдателю со стороны одна может нравиться больше, чем другая, причём в любую сторону.

Моя гамма очень близка к 1. Вам может показаться, что это безусловно круто - планирование далеко вперёд и т.д. Да, не тратить все свои деньги на путешествия и машину - это "разумно", но при стремлении к 1 у этого появляются побочные эффекты.

Чем ближе к 1, тем более равномерно распределяется внимание по временной оси. То, что будет через 10, 20, 30 лет, почти так же важно, как то, что происходит сейчас. Текущий момент не имеет практически никакого веса в масштабе всей будущей жизни. Нет почти никакой возможности наслаждаться настоящим, потому что само наслаждение всегда противоречит работе на будущие награды. Я думаю о будущем всё время в любом контексте и не могу перестать это делать.

Я уже писал про FOMO, в частности, о том, что каждую секунду наша потенциальная суммарная награда уменьшается из-за неоптимальных действий. Через призму гаммы, равной 1, то, как вы воспринимаете жизнь, работает по этому же правилу. Каждую секунду моя личная Q-функция падает, потому что старая секунда прошла, а новая на горизонте не появилась. В жизни непрерывно остаётся всё меньше и меньше положительных эмоций, которые можно испытать. Конечно, я не чувствую этого в реальном времени, но каждый раз, когда разговор заходит о чём-то, что будет через 10, 20 лет, и я себя представляю в этой точке, мне становится плохо, потому что это время безвозвратно вычитается из Q-функции. Даже дни рождения вызывают неприятные ассоциации, потому что отсчитывают твои утекающие годы.

Надо ли говорить о том, что смерть - это то, о чём я вспоминаю почти каждый день хотя бы раз. Это связано не только с гаммой, но ей усугубляется. Мало того, что я боюсь внезапно умереть от какой-нибудь болезни, так ведь мой организм непрерывно изнашивается, каждый день вероятность смерти только растёт. Мне, вообще-то, 26, а я уже регулярно паникую от мысли, что смерть неумолимо приближается. Если окажется, что я точно умру в скором будущем, то мне придётся поверить в симуляцию, чтобы не превратиться в кирпич.

Единственная спичка, на которой держится моё ментальное состояние - это моя искренняя вера, что естественное старение можно победить, причём в ближайшие десятилетия. Каждый раз, сталкиваясь с проблемами, описанными выше, это помогает поддерживать оптимизм, потому что, если у меня тысячелетия впереди, то моей гаммы уже не хватает, чтобы представить, что они закончатся.

Вы можете считать, что у меня психологические проблемы и их можно решить, но, как ни странно, меня итоговое положение вещей устраивает. Вся эта конструкция создаёт для меня смысл жизни без всякой религии. Есть строгое разделение между двумя сценариями - в одном из них старение побеждено и потенциальная награда бесконечно больше, чем в другом - "классическом". Я могу посвятить себя тому, чтобы работать на его достижение, и это довольно весело. О том, как именно, мы поговорим в другой раз.

@knowledge_accumulator
JaxLife: An Open-Ended Agentic Simulator [2024]

Недавно вышла очередная работа на тему симуляции жизни, давайте попробуем её оценить.

"Миром" в данной работе является 2D-поле с клетками. Главным ресурсом является энергия. Каждая клетка обладает разной "плодородностью" (энергии). Агенты могут собирать энергию, терраформировать клетку (и этим увеличивать плодородность). Сама среда плавно и случайно меняется.

На поле присутствует множество агентов, передвигающихся по карте. У них есть возможность передавать друг другу "сообщения". Чтобы понять, как именно, нужно взглянуть на архитектуру каждого агента:

Каждый агент - это нейросеть: она берёт информацию об окружающих клетках, соседних агентах, своё собственное сообщение и сообщения соседних агентов. Вся эта информация кодируется разными энкодерами и подаётся в attention, после чего идёт в LSTM.

Выход из LSTM используется для генерации действий. Существуют разные виды действий - движение, еда, терраформирование, передача сообщений и другие. Все из них генерируются одновременно и независимо, т.е. не одно действие за ход. Обучаются они очень просто - если агент выбирает действие "размножиться", создаётся копия с его зашумлёнными весами.

Помимо агентов в этой среде есть ещё и роботы - они берут сообщения от двух ближайших агентов и используют их для генерации своего собственного действия. Также у них есть память, что в теории позволяет агентам "программировать" роботов.

Получилась довольно богатая среда, и авторы демонстрируют, что в ней представимы разные нетривиальные модели поведения. Чтобы измерять состояние системы, авторы вводят метрики количества агентов, средней плодородности земли, а также общее количество используемой энергии, которое они называют "Kardashev score".

Результаты по этим метрикам достаточно противоречивы. По графикам (прикреплены к посту) нельзя сказать, что "сообщества" эволюционируют в какую-то определённую позитивную сторону.

На мой взгляд, авторами среды был допущен ряд ошибок в дизайне всей работы. Зато благодаря этому я сформулировал то, по какому плану бы я развлекался с искусственной жизнью, если бы этим занимался:

1) Определяем заранее конкретные свойства "существ", которые мы хотим получить
2) Создаём минимальную среду, в которой появление этих свойств является необходимым атрибутом выживания
3) Создаём простейшую параметрическую модель, позволяющую выразить данное свойство
4) Если сходу это не получается, то берём свойства по одному и повторять пункты 1-3, постепенно двигаясь от единичных до полного набора.

Ну и, конечно, желательно перестать всё это делать в формате статей, потому что это ужасный формат для такого рода ресёрча.

@knowledge_accumulator
Что нужно делать, чтобы прожить 500 лет?

Вариант тут один - надо дожить до момента, когда появятся необходимые технологии продления жизни. Сегодня поговорим о том, как повысить свои шансы на это.

Популярным знанием является то, что самую большую пользу приносят самые базовые вещи, и в качестве аргументов приводят исследования на людях:

- Спорт
Тут устанавливают связь, что люди, тратящие на физическую активность >150 минут в неделю, живут значительно дольше
- Сон
В этом мета-анализе фиксируют ассоциацию между сном меньше 6 часов и смертностью
- Диета
В этом исследовании анализируют связи между диетой и смертностью
- Отсутствие вредных привычек
Здесь есть мета-анализ про курение.

Казалось бы, с этим всё понятно, но есть проблема - это наблюдательные исследования. Тот, кто изучал causal inference, знает, что по таким данным невозможно доказать, что сделаны все необходимые поправки, чтобы сделать вывод о причинно-следственной связи.
Очевидный контрпример - что, если более здоровые люди просто склонны к занятию спортом?

Исключить фактор генетики позволяют исследования однояйцевых близнецов, но их гораздо сложнее проводить. Я нашёл вот такое исследование на близнецах, где эффект спорта на долголетие после нескольких поправок сильно падает.

Точный вывод можно было бы сделать с помощью контролируемого исследования: взять N людей, половину из них случайно заставлять заниматься спортом, а другую нет, и потом через 30 лет замерить смертность. Но это звучит нереально. И пока этого нет, эффект на долголетие от воздействия нельзя считать доказанным.

И что же делать в таком случае?

Необходимо проводить как можно более длинные контролируемые исследования и измерять эффекты воздействия. В этом случае, если допустить, что краткосрочное улучшение здоровья ведёт к более медленному старению, можно делать осторожные выводы. Отдельный вопрос в том, что такое "краткосрочное улучшение здоровья". Многие метрики сами по себе всего лишь коррелируют с болезнями и смертностью.

Мне не так давно попался вот такой мета-анализ контролируемых исследований, показывающий, что регулярные занятия спортом повышают многие показатели умственных способностей. Может это и не особо связано с долголетием, но вероятно связано с долгосрочной продуктивностью.

Если вы когда-то ресерчили что-то в том же духе, очень было бы интересно почитать ваши комментарии со ссылками. Может быть, я бы сделал отдельные посты по поводу разных аспектов самосохранения.

@knowledge_accumulator
Надеюсь, что у вас отпадают последние сомнения в том, что практически во всех странах - в России, в европейских странах, Великобритании, в США и многих других во власти сидят бандиты и упыри. Они немного разные и власть устроена по-разному, но базовый факт остаётся фактом.

У людей есть способ им противодействовать, но для этого нужна скоординированная  политическая работа умных и свободных людей с ресурсами. Таких, как Дуров и Маск.

Мы должны найти способ противостоять этому социалистическому интернационалу. У меня есть свои идеи на этот счёт, но о них в другой раз. Напишите, какие идеи есть у вас.
Emergent Bartering Behaviour in Multi-Agent Reinforcement Learning [2022] - анкап-симуляции с RL-агентами

Я уже писал про рецепт успешных симуляций жизни в конце этого поста, и похожим образом поступили авторы данной работы. Цель исследования - изучать поведение агентов в различных экономических условиях.

Для этого авторы разработали следующую симуляцию: есть ограниченный 2D-мир, состоящий из травы, воды и деревьев с банами и яблоками. Агенты в среде существуют 2 видов - "яблочные фермеры" и "банановые фермеры". Они, соответственно, умеют хорошо добывать яблоки и бананы с этих деревьев, с вероятностью 100% фрукт успешно добавляется в рюкзак. Если яблочный фермер пытается собрать банан, то у него маленький шанс на успех, как и наоборот. Наград тут несколько:

1) Небольшой штраф за движение, за нахождение в воде
2) У агентов есть "голод", и при достижении 0 он начинает получать штраф каждую секунду. Съедание фрукта восстанавливает голод до 30.
3) Самое интересное - яблочный фермер за съедание банана (и наоборот) получает сильно большую награду, чем за съедание "своего фрукта"

Таким образом, каждый из видов агентов умеет хорошо добывать один вид фруктов, но при этом он хочет есть другой вид. Чтобы создать возможность обмена, авторы добавляют возможность агенту посылать в локальную окрестность "оффер" - вектор [x;-y], который обозначает "хочу x яблок за y бананов". Пространство офферов ограничено всего 18 опциями. Далее автоматически эти офферы обрабатываются и сводятся между собой, затем атомарно совершаются. Помимо этого, конечно, агенты могут ходить, собирать и съедать фрукты.

Запуская такую симуляцию, авторы ожидаемо видят, что агенты пользуются возможностью обмена и специализируются на добыче одного фрукта, выменивая его на другой. Далее авторы проводят огромное количество экспериментов, пытаясь "переоткрыть" базовое микроэкономическое поведение у агентов.

Рассмотрим, например, понятие кривых спроса и предложения. Для них нужно сначала ввести понятие цены товара. В данной задаче ценой считается среднее соотношение товаров во всех совершённых обменах. То есть, если агенты обменивали в половине случаев 1:1, в половине 1:2, то средняя цена будет 0.75.

Напомню про сами эти кривые - кривая предложения, к примеру, яблок показывает, по какой цене яблочные фермеры готовы продавать яблоки в зависимости от количества. Кривая спроса - по какой цене банановые фермеры готовы покупать яблоки при разном их количестве. Их пересечение даёт точку равновесия, наблюдаемую на практике.

Двигая одну из этих кривых, по перемещению точки равновесия можно восстановить другую кривую, таким образом, можно нарисовать настоящие кривые спроса и предложения в этой задаче, чем и занимаются авторы. Они регулируют количество яблочных / банановых деревьев, умножая их вероятность спауна на число, и рисуют точки равновесия. Результаты прикреплены к посту. Кривые, вероятно, зашумлены, но ожидаемая в теории закономерность видна.

В статье приводится огромное количество других подобных экономических экспериментов, интересующимся советую прочитать полный вариант. У такого подхода, есть, конечно, и минус - не всегда получаемое поведение обусловлено внешними условиями, а не тем, что агент тупо не смог сойтись к оптимальной точке. Например, если бы мы задали более элементарное пространство действий, агенты могли бы попросту не научиться совершать обмен, потому что это слишком длинная цепочка элементарных операций. Тем не менее, игрушка интересная.

@knowledge_accumulator
В чём на самом деле суть политических координат

Не существует более запутанной и вводящей в заблуждение темы в мире, чем политика. Это гуманитарная область знаний, в которую объективный взгляд, научный подход и грамотность обычно не захаживают. Сегодня я попробую донести, в чём заключаются одни из ключевых концептов этой области - политические взгляды/координаты.

Прежде всего, политические координаты - это про ответ на вопрос "Хотите ли вы, чтобы можно было X?" Существует огромное количество очень конкретных штук, которые можно подставить вместо X. Например - "Хотите ли вы, чтобы можно было употреблять марихуану?", "Хотите ли вы, чтобы можно было платить работнику 1 доллар в месяц?" и т.д. Если выписать ответы на все эти вопросы в ряд, то они будут полностью задавать политический уклад общества.

Дальше начинается крайне важная вещь. Вы можете подумать, что все эти вопросы составляют пространство политических взглядов, где каждая ось - это ответ на каждый "Хотите ли вы, чтобы можно было X?", и ваши взгляды - это точка в этом пространстве. Но это неправильный подход. Каждый вопрос задаёт не одну, а две координаты в таком пространстве:

1) Хочу ли я, чтобы можно было X там, где я живу?
2) На каком уровне власти должно решаться, можно ли там X?

Первое по сути характеризует ваши "личные" предпочтения, как вы хотите, чтобы этот вопрос решался там, где это вас непосредственно касается. Как ни странно, эта часть политически наименее важна! Решающим вопросом является как раз второй - насколько централизованно должно решаться то, можно ли там X? Это тоже направленная координатная ось.

С одной стороны оси находится "на уровне страны" или даже "на мировом уровне", а с другой "на уровне городов", "на уровне районов". На первый взгляд может показаться, что максимальная свобода - это когда во всём мире можно X, но это заблуждение. Дело в том, что помимо "свободы делать X" у людей может быть "свобода не жить рядом с теми, кто делает X". Это называется свобода ассоциации, и в рамках такой либертарианской концепции, как контрактные юрисдикции, "право на X" и "право не жить рядом с X" логично разрешаются, но сейчас я не буду вас этим грузить.

Итак, если часть людей хочет у себя разрешить X, а часть не разрешать у себя X, то удовлетворить всех наилучшим образом позволяет разрешение вопроса об X на как можно более локальном уровне. А если вы хотите, чтобы X разрешался / запрещался централизованно, то поздравляю, вы тиран. Это обозначает, что вы хотите решать за других, можно ли им X/можно ли им не жить рядом с X, а в этом и заключается ключ к тирании.

Да, существует часть вопросов, ответ на которые имеет глобальное значение - "Можно ли взрывать ядерную бомбу?", но подавляющая доля политических осей имеет только локальное влияние на общество, а значит, нет никакой причины поддерживать централизованное регулирование этих вопросов.

Суммируя - ваши взгляды в основном задаются тем, насколько централизованно вы хотите разрешать или запрещать X, и только потом вашими предпочтениями о локальном устройстве. Свобода максимизируется децентрализацией власти, и если вы не тиран по своей природе, а таких меньшинство, выбирайте передачу власти на нижний уровень. Гораздо больше людей похожи друг на друга в этом контексте, чем может показаться. Нам не нужно спорить о наших личных предпочтениях о марихуане, если вы можем договориться о том, что каждый живёт в том обществе, в котором хочет.

@knowledge_accumulator
XLand-MiniGrid: Scalable Meta-Reinforcement Learning Environments in JAX [2024]

Одной из главных компонент обучения общего интеллекта будет обучающее распределение задач. На мой взгляд, оно не обязано быть сложным и высокоразмерным, главная необходимая характеристика - это высокое разнообразие задач. XLand-MiniGrid является движением именно в эту сторону.

Существует такая среда XLand, на которой тренировали AdA. Каждая задача представляла из себя случайную 3Д-комнату, на которой были разбросаны объекты. Агент управлялся от первого лица, получая изображение на вход. При создании задачи сэмплировался набор "правил" - то, как между собой взаимодействуют объекты, разбросанные по комнате. Например, если два определённых объекта касаются друг друга, то вместо них появляется определённый третий.

Несколько простых правил порождали ~10^40 возможных задач, на которых потом обучали мета-алгоритм. Авторы XLand-MiniGrid применили похожий подход, но вместо 3Д-комнаты используется небольшая 2Д-сетка, таким образом убирается лишняя сложность и уменьшается требуемый компьют. Сейчас самое время взглянуть на иллюстрацию.

Существует процедура генерации задачи - строится дерево "подзадач", каждая из которых - "получение" определённого объекта из полученных ранее (засчёт правил превращения). Финальная цель - получить объект в корне этого дерева. У дерева можно регулировать разнообразие и количество вершин, таким образом задавая сложность.

Среда реализована в JAX и позволяет эффективно гонять её на GPU, запуская много сред одновременно, что уменьшает вероятность нахождения боттлнека в симуляторе.

Минусом в этой среде, на мой взгляд, является не особо большое концептуальное разнообразие правил взаимодействия объектов в этой среде - по факту они все сводятся к нахождению рядом между собой 2 объектов, либо к держанию агентом объекта. Реальная ли эта проблема? Неясно, потому что ещё непонятно, насколько именно разнообразным должен быть класс задач, на котором мета-обучают интеллект.

Кажется, что эволюция обучающих сред должна происходить совместно с эволюцией мета-алгоритмов, и все они должны двигаться в сторону общего интеллекта. Под этим я имею ввиду, что необходим какой-то meta-RL-бенчмарк - задача, на котором не запускают мета-обучение, а только мета-тестируют итоговый обучающий алгоритм. Это бы позволило исследователям соревноваться на одном "лидерборде", экспериментируя с моделями и задачами.

Тем не менее, даже в рамках XLand-MiniGrid существует пространство для экспериментов с мета-лёрнингом, в рамках которого можно найти AGI-архитектуру, удовлетворяющую всем необходимым требованиям.

@knowledge_accumulator
Как я выбрал самый скучный в мире спорт (не футбол)

У меня всегда были сложные отношения с физическими нагрузками - я не особо склонен вести активный образ жизни. В детстве я занимался шахматами немного гимнастикой, немного баскетболом, в студенчестве ходил на ушу (это отдельная песня). Ничего из этого я прям до глубины души не любил, просто ходил, потому что надо было чем-то заниматься.

За год до отъезда из Москвы я узнал про существование сквоша и случилась любовь - 4 играющих стены и отскакивающий мяч это очень весело, ну и носишься по корту как угорелый, а значит полезно, если только ракеткой в нос не получишь. Своим талантом я не блистал, но зато научился выигрывать у друзей, которые играют в первый раз.

Проблема в том, что сквош-корт - это не беговая дорожка, и его нужно построить. Возможно, его действительно изобрели в английских тюрьмах, потому что в остальном Лондоне пабов где-то на 2-3 порядка больше, чем чего-либо, связанного со сквошем. При этом мне, как русскому человеку, приятен интерфейс вида City Squash - специализированный бизнес с нормальным сайтом, телеграм-каналом, кучей доступной информации, онбордингом для новичков и большим количеством людей.

В Лондоне так не принято. Здесь почти нет мест со squash в названии, а если есть, то это бойцовские маленькие закрытые клубы с двумя абзацами текста на сайте, Если кто-нибудь лондонский играет и готов меня вписать, напишите в личку 😁

Я всегда считал обычный спортзал последней опцией. Во-первых, поднять штангу, чтобы положить её обратно - это тупо и по эффективности напоминает плановую экономику. Во-вторых, это не весело. В третьих, непонятно, что и как делать, а где искать неклоунского тренера - ума не приложу. Однако, в какой-то момент я принял волевое решение благодаря плюсам качалки - залы есть везде, это полезно, а ещё иметь иметь мышцы - это красиво.

Изучив интернет и применив магию критического мышления, оказалось, что ситуация с качалкой похожа на управление деньгами - оптимальное решение для большинства людей - это что-то очень простое, настолько, что в это мало кто может поверить. Есть фундаментальные логичные правила, по которым работает мышечный рост, и если придерживаться нескольких принципов, то легко достичь 80% возможного результата, и на это нужно всего несколько часов в неделю.

Если кто-то не в курсе - это не занятие только для мужиков, женщинам качалка тоже очень нужна и полезна. Да, поднимать гантели и жать лёжа на скамье. И нет, вы не станете "слишком мускулистой", как и не станете случайно "слишком богатой", работая баристой.

В этой сфере, как и в деньгах, крутится огромное количество клоунов, которые пытаются всё усложнить, выставляя себя людьми с другим уровнем понимания и зарабатывая на этом. Если у вас нет каких-то медицинских особенностей, то самообразование в интернете точно даст вам всё необходимое.

Если вы захотите копать в эту сторону, вот наиболее надёжные точки входа на мой взгляд:

Телеграм-канал Артёма - здесь про еду и спорт, много развенчания говноинфы из интернета с научными пруфами, очень полезно

Ютуб канал от Jeff Nippard - про всё, что связано с тренировками, опять же, с научным подходом. Для совсем уж душнил есть прямо лекции с доской, где с полного нуля рассказываются базовые принципы и по которым в принципе можно себе программу составить.

Что нужно только мужикам, так это меряться письками. Для этого есть специальный сайт, где для основных упражнений указаны перцентили и "уровни", с учётом вашего веса / возраста - так можно понять, насколько вы дно. Приятного изучения!

@knowledge_accumulator
Better Than Yesterday

Мне нравится работать над собой и как-то изменять свою рутину для большей долгосрочной продуктивности. Существует много контента, касающегося саморазвития, и среди них мне больше всего нравится Better Than Yesterday.

Автор компилирует идеи из разных книг, к примеру, небезызвестной Atomic Habits, и делает ролики про разные аспекты жизни, нередко выдавая очень занимательные идеи. Часть из них вы знаете и уже считаете очевидной базой, но наверняка вы найдёте для себя что-то новое. Расскажу про несколько примеров:

1) Не нужно использовать силу воли, чтобы контролировать свою ежедневную рутину.
Ключ к ежедневному принятию "правильных" решений (например, не съесть шоколадку или не сидеть в тиктоке) - это не постоянное применение силы воли. Лучше всего сработает правильный дизайн среды. Необходимо обустроить свою жизнь так, чтобы действовать неправильно стало требующим усилия решением. Самое простое - это перестать покупать "на будущее" вредную еду себе домой.

2) Зачем превращать свою жизнь в игру
Наш мозг не заточен под то, чтобы делать что-то долгое время без награды. Чтобы обмануть его и сделать полезную рутину чем-то приятным, можно взглянуть на успешный опыт - на игры. Они задизайнены таким образом, чтобы вам было весело и интересно совершать большое количество действий, и какие-то практики оттуда можно переносить в жизнь. Самый простой пример - это обещать себе "награду" за промежуточные результаты. В видео подробно разбираются эта и другие идеи.

3) Чем занять перерывы в работе?
Вряд ли вы можете много часов без перерыва заниматься своей работой, иначе ваш мозг стухнет. Часто мы совершаем ошибку, тратя перерывы на что-то типа тиктока, но это не является качественным отдыхом для вашей головы. Вместо этого можно внедрять более полезные альтернативы - небольшая уборка, чтение или прогулка.

4) Как улучшить свой фокус
Про то, что способные сидеть часами за одной задачей - сверхлюди, многие уже слышали. Но это не только врождённая способность - это можно облегчить или усложнить, следуя определённым правилам и тренируясь.

5) Самая большая финансовая ошибка
Когда вы начинаете больше зарабатывать, вы начинаете больше тратить на свою жизнь - снимать квартиру побольше, машину подороже и т.д. В результате вы не копите деньги, а в случае падения дохода попадаете в неприятную ситуацию. При этом ваше счастье увеличивается не сильно, т.к. вы ко всему привыкаете, если это за гранью базовых потребностей. Поэтому решения о тратах должны приниматься вне зависимости от изменения дохода, ну или можно ввести правило вроде "тратить 50% денег".

6) Почему выгодно родиться в январе
Пример того, как положительная обратная связь очень сильно бустит случайную часть людей, на примере того, в какой части года они родились.

Советую потратить какое-то время на изучение канала, скорее всего, найдёте для себя что-то интересное.

@knowledge_accumulator
2025/06/16 12:26:46
Back to Top
HTML Embed Code: