Кстати, как понял трансляция Нвидиевской GTC 2024 будет тут (~ через 3.5 часа)
Судя по всему будет много про генеративки. (хочу много про RL)
https://www.youtube.com/watch?v=Y2F8yisiS6E
Судя по всему будет много про генеративки. (хочу много про RL)
https://www.youtube.com/watch?v=Y2F8yisiS6E
YouTube
GTC March 2024 Keynote with NVIDIA CEO Jensen Huang
Watch NVIDIA CEO Jensen Huang’s GTC keynote to catch all the announcements on AI advances that are shaping our future.
Dive into the announcements and discover more content at https://www.nvidia.com/gtc.
Follow NVIDIA on X (formerly Twitter):
https://t…
Dive into the announcements and discover more content at https://www.nvidia.com/gtc.
Follow NVIDIA on X (formerly Twitter):
https://t…
🔥7
Forwarded from Love. Death. Transformers.
its not a world model if its not hype enough - open sora
Китайская версия Sora начала учиться чуть больше месяца назад, и за всего то 200 а100 дней и 400к видео начала генерировать вполне неплохие 2s видео!
А, это не финальный чекпоинт и это всего 16×512×512
repo
blog про ускорение обучения
Китайская версия Sora начала учиться чуть больше месяца назад, и за всего то 200 а100 дней и 400к видео начала генерировать вполне неплохие 2s видео!
А, это не финальный чекпоинт и это всего 16×512×512
repo
blog про ускорение обучения
GitHub
GitHub - hpcaitech/Open-Sora: Open-Sora: Democratizing Efficient Video Production for All
Open-Sora: Democratizing Efficient Video Production for All - hpcaitech/Open-Sora
🤔4👍1
Аппроксимировать агентов для физики с SINDy моделями.
Работа использует Sparse Dictionary Learning, вид символьной регрессии когда исходная функция выучивается в виде линейной комбинации функций из заранее заданного набора. Зовется еще SINDy.
Нужно чтобы зависимость между X и Y была представима в этом наборе.
В результате получаем dictionary model.
Говорят, что оно хорошо учится на ограниченных данных. (полезно)
В основном применяют для физических задач.
Читать подробно нужно тут (2015 год)
Discovering governing equations from data: Sparse identification of nonlinear dynamical systems
https://arxiv.org/abs/1509.03580
Что происходит в основной работе (в целом все выучить в эти самые dictionary models):
Approximating Dynamics. (учим модель динамики)
Трейним в исходном окружении model free RLем нейронку, собирая данные, чтобы фитить суррогатную dictionary model динамики на них. Повторяем много раз.
Approximating Rewards. (учим функцию реварда)
Учим dictionary model для реварда на офлайн данных. Подразумевается, что ревард можно выучить из observation.
Policy также учится в sparse dictionary model, получая символьную апроксимацию нейронки.
Т.е. вначале учимся нейронкой в суррогатном окружении, потом прогоняем ее на данных X, получаем Y и фитим dictionary model на этом.
В конце у нас динамика, функция реварда и полиси представимы в виде наборов исходных функций. Т.е. получаем объяснимые модели + количество весов меньше (должно быть) чем в той же нейронке. И авторы давят на то, что SINDy модельки применять там где надо быть энергоэффективными.
Учились в задачках dm control swing-up , gymnasium Swimmer-v4, HydroGym Cylinder.
Так понял.
Нюансы:
* лишь 50% агентов сходятся.(остальные расходятся)
* На графики сильно не обольщаемся (я обольстился), ибо там количество интеракций в исходном окружении, а много обучения делается в суррогатной модели.
За подробностями сюда
SINDy-RL: Interpretable and Efficient Model-Based Reinforcement Learning
https://arxiv.org/abs/2403.09110
https://github.com/nzolman/sindy-rl
Работа использует Sparse Dictionary Learning, вид символьной регрессии когда исходная функция выучивается в виде линейной комбинации функций из заранее заданного набора. Зовется еще SINDy.
Нужно чтобы зависимость между X и Y была представима в этом наборе.
В результате получаем dictionary model.
Говорят, что оно хорошо учится на ограниченных данных. (полезно)
В основном применяют для физических задач.
Читать подробно нужно тут (2015 год)
Discovering governing equations from data: Sparse identification of nonlinear dynamical systems
https://arxiv.org/abs/1509.03580
Что происходит в основной работе (в целом все выучить в эти самые dictionary models):
Approximating Dynamics. (учим модель динамики)
Трейним в исходном окружении model free RLем нейронку, собирая данные, чтобы фитить суррогатную dictionary model динамики на них. Повторяем много раз.
Approximating Rewards. (учим функцию реварда)
Учим dictionary model для реварда на офлайн данных. Подразумевается, что ревард можно выучить из observation.
Policy также учится в sparse dictionary model, получая символьную апроксимацию нейронки.
Т.е. вначале учимся нейронкой в суррогатном окружении, потом прогоняем ее на данных X, получаем Y и фитим dictionary model на этом.
В конце у нас динамика, функция реварда и полиси представимы в виде наборов исходных функций. Т.е. получаем объяснимые модели + количество весов меньше (должно быть) чем в той же нейронке. И авторы давят на то, что SINDy модельки применять там где надо быть энергоэффективными.
Учились в задачках dm control swing-up , gymnasium Swimmer-v4, HydroGym Cylinder.
Так понял.
Нюансы:
* лишь 50% агентов сходятся.
* На графики сильно не обольщаемся (я обольстился), ибо там количество интеракций в исходном окружении, а много обучения делается в суррогатной модели.
За подробностями сюда
SINDy-RL: Interpretable and Efficient Model-Based Reinforcement Learning
https://arxiv.org/abs/2403.09110
https://github.com/nzolman/sindy-rl
❤7👍2
DeepMind идут в спорт и учат ИИшку генерить футбольные тактики с TacticAI
В колабе с Liverpool FC
https://deepmind.google/discover/blog/tacticai-ai-assistant-for-football-tactics/
Статья
https://www.nature.com/articles/s41467-024-45965-x
В колабе с Liverpool FC
https://deepmind.google/discover/blog/tacticai-ai-assistant-for-football-tactics/
Статья
https://www.nature.com/articles/s41467-024-45965-x
❤10🔥3
Ученые на месте?
Нашел интересный проект с ИИшкой для науки
https://www.air4.science/
https://github.com/divelab/AIRS
Внутри подразделы с реализациями работ по следующим направлениям
- OpenQM: AI for Quantum Mechanics
- OpenDFT: AI for Density Functional Theory
- OpenMol: AI for Small Molecules
- OpenProt: AI for Protein Science
- OpenMat: AI for Materials Science
- OpenMI: AI for Molecular Interactions
- OpenPDE: AI for Partial Differential Equations
Интересующимся рекомендую посмотреть, мб что полезное увидите
Нашел интересный проект с ИИшкой для науки
https://www.air4.science/
https://github.com/divelab/AIRS
Внутри подразделы с реализациями работ по следующим направлениям
- OpenQM: AI for Quantum Mechanics
- OpenDFT: AI for Density Functional Theory
- OpenMol: AI for Small Molecules
- OpenProt: AI for Protein Science
- OpenMat: AI for Materials Science
- OpenMI: AI for Molecular Interactions
- OpenPDE: AI for Partial Differential Equations
Интересующимся рекомендую посмотреть, мб что полезное увидите
🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
Дикие робособаки учатся заносить чебупели на 5 этаж. Жестяная природа удивительна
AnymalTerrain в IsaacGym
AnymalTerrain в IsaacGym
👏15😱2
Опять нам пропихивают агентов на концепте LLM OS
Сразу расчет на работу с локальными ллмками
Тулы, раги, поиск. Все что мы любим. Почему-то у них в примере Gemma-2B... Этого я не понял. Чего сразу опенчат не подкрутили?
AIOS: LLM Agent Operating System
https://github.com/agiresearch/AIOS
Сразу расчет на работу с локальными ллмками
Тулы, раги, поиск. Все что мы любим. Почему-то у них в примере Gemma-2B... Этого я не понял. Чего сразу опенчат не подкрутили?
AIOS: LLM Agent Operating System
https://github.com/agiresearch/AIOS
Агенты ИИ | AGI_and_RL
Вот и на архиве можно почитать Код уже есть https://recall2imagine.github.io/ Mastering Memory Tasks with World Models https://arxiv.org/abs/2403.04253
GitHub
GitHub - chandar-lab/Recall2Imagine: Recall to Imagine, a model-based RL algorithm with superhuman memory. Oral (1.2%) @ ICLR 2024
Recall to Imagine, a model-based RL algorithm with superhuman memory. Oral (1.2%) @ ICLR 2024 - chandar-lab/Recall2Imagine
🔥5👏1
Forwarded from Dealer.AI
Видели такое?
Тут говорят можно разные техники, лоссы, архитектуры DL наглядно изучить. Фреймворк DL Pytorch.
Удобно?
https://nn.labml.ai/
Тут говорят можно разные техники, лоссы, архитектуры DL наглядно изучить. Фреймворк DL Pytorch.
Удобно?
https://nn.labml.ai/
👍9🔥5❤2
Вон чего выдумали
Предлагают Evolutionary Model Merge способ сборки нужных вам Foundational Models из частей других моделек с эволюционными техниками.
Можно мержить модельки разных архитектур.
Таким образом собрали себе 3 модельки для японского (из уже существующих моделек)
Large Language Model (EvoLLM-JP) (для решение математики)
Vision-Language Model (EvoVLM-JP)
Image Generation Model (EvoSDXL-JP)
Судя по метричкам неплохо так получилось.
В процессе эволюцией решают 2 задачи
Merging in the Parameter Space: как смиксовать новые слои из исходных слоев разных моделек. (получать новый слой из существующих)
Merging in the Data Flow Space: ищут как собрать лучшую последовательность слоев разных моделей. (новых слоев не формируем, выстраиваем последовательность из существующих)
Их можно решать по отдельности, можно вместе. Подробно в статье.
Так понял.
Чтобы собрать мегазорда нужен датасет (на котором хотим улучшаться) ну и набор исходных моделек.
Очень даже интересно
https://sakana.ai/evolutionary-model-merge/
https://github.com/sakanaai/evolutionary-model-merge
Evolutionary Optimization of Model Merging Recipes
https://arxiv.org/abs/2403.13187
Предлагают Evolutionary Model Merge способ сборки нужных вам Foundational Models из частей других моделек с эволюционными техниками.
Можно мержить модельки разных архитектур.
Таким образом собрали себе 3 модельки для японского (из уже существующих моделек)
Large Language Model (EvoLLM-JP) (для решение математики)
Vision-Language Model (EvoVLM-JP)
Image Generation Model (EvoSDXL-JP)
Судя по метричкам неплохо так получилось.
В процессе эволюцией решают 2 задачи
Merging in the Parameter Space: как смиксовать новые слои из исходных слоев разных моделек. (получать новый слой из существующих)
Merging in the Data Flow Space: ищут как собрать лучшую последовательность слоев разных моделей. (новых слоев не формируем, выстраиваем последовательность из существующих)
Их можно решать по отдельности, можно вместе. Подробно в статье.
Так понял.
Чтобы собрать мегазорда нужен датасет (на котором хотим улучшаться) ну и набор исходных моделек.
Очень даже интересно
https://sakana.ai/evolutionary-model-merge/
https://github.com/sakanaai/evolutionary-model-merge
Evolutionary Optimization of Model Merging Recipes
https://arxiv.org/abs/2403.13187
🔥15👍1
OpenAI делятся семплами из своей text-to-speech/voice cloning модельки Voice Engine
https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices
https://openai.com/blog/navigating-the-challenges-and-opportunities-of-synthetic-voices
Openai
Navigating the challenges and opportunities of synthetic voices
We’re sharing lessons from a small scale preview of Voice Engine, a model for creating custom voices.
Предлагаю организовать небольшой тредик в комментах на тему OpenAIшного Q*, чем они могли бы заниматься в рамках этого проекта. Если там ИИшка, но на чем она может базироваться?
Накидываем свои мысли
Мне просто интересно
У меня особо нету догадок.
1. Гигатрансформер, который будет ризонить как не в себя?
2. Какой-нибудь мощный RL/self-supervised алгоритм.
3. ...
Скрин из книжечки
Reinforcement Learning Textbook
https://arxiv.org/abs/2201.09746
Накидываем свои мысли
Мне просто интересно
У меня особо нету догадок.
1. Гигатрансформер, который будет ризонить как не в себя?
2. Какой-нибудь мощный RL/self-supervised алгоритм.
3. ...
Скрин из книжечки
Reinforcement Learning Textbook
https://arxiv.org/abs/2201.09746
❤2👍1🤔1
Forwarded from AbstractDL
Как устроено пространство, в котором думают языковые модели?
Наша статья про анизотропию и внутреннюю размерность активаций трансформеров вышла в печать на EACL! В честь этого я подготовил небольшой хабр с её разбором.
Статья, хабр
Наша статья про анизотропию и внутреннюю размерность активаций трансформеров вышла в печать на EACL! В честь этого я подготовил небольшой хабр с её разбором.
Статья, хабр
🔥13👍3
На канале 3Blue1Brown вышло видео объясняющее что же такое GPT. Очень приятное.
Я выставил в настройках русские субтитры, и мне стало еще понятнее :)
https://www.youtube.com/watch?v=wjZofJX0v4M
Я выставил в настройках русские субтитры, и мне стало еще понятнее :)
https://www.youtube.com/watch?v=wjZofJX0v4M
YouTube
Transformers, the tech behind LLMs | Deep Learning Chapter 5
Breaking down how Large Language Models work, visualizing how data flows through.
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
---
Here are a few other relevant resources
Build a GPT from scratch…
Instead of sponsored ad reads, these lessons are funded directly by viewers: https://3b1b.co/support
---
Here are a few other relevant resources
Build a GPT from scratch…
🔥7🥰5👍3❤1