Andreessen Horowitz
Контент из параллельной вселенной. Вот такие фотки прилетают сегодня в рабочий Slack. На первой Кевин Харт, на второй Хоровитц и Андриссен.
В небольшой (6 человек) стартап, к которому я присоединился, инвестировал фонд a16z. Сегодня они устроили тусовку для своих LP. Мы в свою очередь пахали последние 2 недели как не в себя, чтобы подготовить материалов и попитчить толстосумам.
Контент из параллельной вселенной. Вот такие фотки прилетают сегодня в рабочий Slack. На первой Кевин Харт, на второй Хоровитц и Андриссен.
В небольшой (6 человек) стартап, к которому я присоединился, инвестировал фонд a16z. Сегодня они устроили тусовку для своих LP. Мы в свою очередь пахали последние 2 недели как не в себя, чтобы подготовить материалов и попитчить толстосумам.
🔥15
Кватернионы
Есть легенда, что 16 октября 1843 года сэр Уильям Гамильтон знатно накидался и, переходя мост в Дублине, придумал кватернионы. Почти 180 лет спустя я, будучи первый день в отпуске, бахнул пива, затем текилы, шлифанул вином и набрался смелости написать про кватернионы.
В 3D-графике регулярно возникает задача вращать различные объекты в пространстве: камеру, сцену, суставы персонажей. Из курса линейной алгебры вы вероятно помните, что описывать вращения можно с помощью матриц поворота. Например, вращение вокруг оси Ox можно описать матрицей 3х3
1 0 0
0 cos(phi) -sin(phi)
0 sin(phi) cos(phi)
Здесь мы по столбцам выражаем координаты нового (повернутого на угол phi) ортонормированного базиса в старом.
Так вот оказывается, что любое вращение 3D-пространства является вращением вокруг некоторой оси (теорема Эйлера), а описать его можно с помощью 4D-кватерниона
q = cos(phi/2) + sin(phi/2) * (xi + yj + zk),
где i^2 = j^2 = k^2 = -1 — мнимые единицы, ijk = -1,
(x, y, z)^T — ось вращения.
Если правильно понимаю, в компьютерных науках основной профит кватернионов в том, что вместо 3х3=9 чиселок для матрицы поворота в памяти хранятся всего 4 коэффициента (x, y, z, w). В чистой математике профит в том, что можно оперировать как с комплексными числами с поправкой на некоммутативность умножения.
Я в теме только начал разбираться, поэтому могу подсказать несколько видео, вдруг кому-нибудь будет интересно:
- Алгоритм использования кватернионов на практике
- Связь алгебры (кватернионов) и геометрии (вращений)
- Савватеев, Доказательство теоремы Эйлера об одной оси вращения (далее в плейлисте 17+ есть и вся теория кватернионов с доказательствами основных утверждений)
Есть легенда, что 16 октября 1843 года сэр Уильям Гамильтон знатно накидался и, переходя мост в Дублине, придумал кватернионы. Почти 180 лет спустя я, будучи первый день в отпуске, бахнул пива, затем текилы, шлифанул вином и набрался смелости написать про кватернионы.
В 3D-графике регулярно возникает задача вращать различные объекты в пространстве: камеру, сцену, суставы персонажей. Из курса линейной алгебры вы вероятно помните, что описывать вращения можно с помощью матриц поворота. Например, вращение вокруг оси Ox можно описать матрицей 3х3
1 0 0
0 cos(phi) -sin(phi)
0 sin(phi) cos(phi)
Здесь мы по столбцам выражаем координаты нового (повернутого на угол phi) ортонормированного базиса в старом.
Так вот оказывается, что любое вращение 3D-пространства является вращением вокруг некоторой оси (теорема Эйлера), а описать его можно с помощью 4D-кватерниона
q = cos(phi/2) + sin(phi/2) * (xi + yj + zk),
где i^2 = j^2 = k^2 = -1 — мнимые единицы, ijk = -1,
(x, y, z)^T — ось вращения.
Если правильно понимаю, в компьютерных науках основной профит кватернионов в том, что вместо 3х3=9 чиселок для матрицы поворота в памяти хранятся всего 4 коэффициента (x, y, z, w). В чистой математике профит в том, что можно оперировать как с комплексными числами с поправкой на некоммутативность умножения.
Я в теме только начал разбираться, поэтому могу подсказать несколько видео, вдруг кому-нибудь будет интересно:
- Алгоритм использования кватернионов на практике
- Связь алгебры (кватернионов) и геометрии (вращений)
- Савватеев, Доказательство теоремы Эйлера об одной оси вращения (далее в плейлисте 17+ есть и вся теория кватернионов с доказательствами основных утверждений)
❤9👏3🍌2
Капелька кринжатины
Благодаря сториз в телеге я узнал, что в моем списке контактов есть девушка, которая практикует сатанизм или что-то вроде того. Если правильно помню, 10 лет назад она была хозяйкой хаты на одной из вписок в медведково. Сейчас вот фотки с кладбищ выкладывает. Получается повезло, что в свое время мне удалось выбраться со вписки целым и невредимым.
Благодаря сториз в телеге я узнал, что в моем списке контактов есть девушка, которая практикует сатанизм или что-то вроде того. Если правильно помню, 10 лет назад она была хозяйкой хаты на одной из вписок в медведково. Сейчас вот фотки с кладбищ выкладывает. Получается повезло, что в свое время мне удалось выбраться со вписки целым и невредимым.
😁12👍1🤣1
Сходил на подскаст, вещал про генеративные нейросетки и некоторые приложения к играм.
Го слушать:
YouTube
mave
«Яндекс Музыка»
Apple
Castbox
Google
Содержание:
— Как нейросети помогают сделать игровую индустрию great again, экономят время художников и разработчиков.
— Где и кем еще применяются графические нейросети.
— Почему ИИ не отберёт у нас работу.
— Своя компания vs работа в найме
— Что такое Stable Diffusion, как она устроена изнутри и при чём тут диффузия.
— Как работает Clip. Зачем преобразовывать промпты в векторы и считать векторное произведение.
— Как обучалась Stable Diffusion. Что такое U-Net, шум и денойзинг. Рецепт крутой нейросети.
— Виды машинного обучения: Supervised Learning, Semi-Supervised learning, Unsupervised Learning и Reinforcement learning — как устроены и в чем разница.
— Fine tuning: как натренировать нейросеть под свои задачи.
— Что нужно, чтобы создать классную востребованную нейросеть и надо ли оно вам.
— Чем Stable Diffusion отличается от Midjourney и других конкурентов. Почему нейросети так ужасно рисуют руки и как это можно исправить.
— Как эволюционировали графические нейросети.
— Способен ли современный ИИ выполнять «серьёзную и полезную» работу или он годится лишь для генерации забавных картинок?
— Над чем сегодня бьются ML-разработчики и ученые в области искусственного интеллекта.
— Я фанат ИИ и хочу работать с нейросетями: куда мне пойти учиться, что читать и где работать?
Го слушать:
YouTube
mave
«Яндекс Музыка»
Apple
Castbox
Содержание:
— Как нейросети помогают сделать игровую индустрию great again, экономят время художников и разработчиков.
— Где и кем еще применяются графические нейросети.
— Почему ИИ не отберёт у нас работу.
— Своя компания vs работа в найме
— Что такое Stable Diffusion, как она устроена изнутри и при чём тут диффузия.
— Как работает Clip. Зачем преобразовывать промпты в векторы и считать векторное произведение.
— Как обучалась Stable Diffusion. Что такое U-Net, шум и денойзинг. Рецепт крутой нейросети.
— Виды машинного обучения: Supervised Learning, Semi-Supervised learning, Unsupervised Learning и Reinforcement learning — как устроены и в чем разница.
— Fine tuning: как натренировать нейросеть под свои задачи.
— Что нужно, чтобы создать классную востребованную нейросеть и надо ли оно вам.
— Чем Stable Diffusion отличается от Midjourney и других конкурентов. Почему нейросети так ужасно рисуют руки и как это можно исправить.
— Как эволюционировали графические нейросети.
— Способен ли современный ИИ выполнять «серьёзную и полезную» работу или он годится лишь для генерации забавных картинок?
— Над чем сегодня бьются ML-разработчики и ученые в области искусственного интеллекта.
— Я фанат ИИ и хочу работать с нейросетями: куда мне пойти учиться, что читать и где работать?
YouTube
Stable Diffusion, Midjourney и все‑все‑все: что под капотом у графических нейросетей
Гость. Дмитрий Савостьянов — CEO и основатель Artifactory. Сделал GOSU.AI — голосового помощника для геймеров.
— Как нейросети помогают сделать игровую индустрию great again и экономят время игроделов.
— Где и кем ещё применяются графические нейросети.…
— Как нейросети помогают сделать игровую индустрию great again и экономят время игроделов.
— Где и кем ещё применяются графические нейросети.…
🔥13👍4👌2
Воскресные философствования про систему ценностей
Смотрел сейчас интервью с Борисом Ким — сооснователем Qiwi. Понравился его подход к рассуждениям, особенно история про систему ценностей.
Пока смотрел видео, вспомнил, что задумывался над ценностями в университетские годы, когда читал книжку “Атлант расправил плечи”. Произведение достаточно радикальное, но в свое время подтолкнуло к размышлениям. Там это называлось кодекс ценностей, если я правильно помню.
Первый вопрос: что же такое система ценностей?
В математике есть аксиомы: между любыми двумя точками можно провести прямую; через три точки не лежащие на одной прямой — плоскость... Когда аксиомы определены, можно строить теорию, которая формулирует наборы теорем, вытекающих из аксиом.
Было бы прикольно иметь аксиомы для жизни. Но люди и мир не так идеальны как математика, поэтому сложно составить непротиворечивую систему аксиом для человека. Зато, исходя из поступков и предпочтений людей в прошлом, можно подмечать, что для кого-то деньги важнее славы, а для другого знания важнее денег, а для третьего семья важнее знаний и тд.
Так вот ценности для себя я определяю как набор утверждений:
- я люблю решать интересные задачки
- я люблю деньги
- я не люблю проигрывать
…
Причем между данными утверждениями определен порядок (хотя бы частично), т.е. я могу любить деньги больше, чем не любить проигрывать или наоборот.
Когда ценности определены, гораздо проще принимать решения по жизни, не метаться и не сожалеть. Например, вы футболист и вам предлагают слить матч за деньги. Если вы любите деньги больше побед, то вы с бОльшей вероятностью согласитесь слить матч, потому что это укладывается в вашу систему ценностей.
Второй вопрос: какая у меня система ценностей?
Так вот сегодня я понял, что хоть и обрисовал для себя идею ценностей, я так и не сформулировал их в явном виде на бумаге. С кем вообще такие вопросы обсуждают? Это к психологам, философам или коучам?)
Ссылка на интервью
Смотрел сейчас интервью с Борисом Ким — сооснователем Qiwi. Понравился его подход к рассуждениям, особенно история про систему ценностей.
Пока смотрел видео, вспомнил, что задумывался над ценностями в университетские годы, когда читал книжку “Атлант расправил плечи”. Произведение достаточно радикальное, но в свое время подтолкнуло к размышлениям. Там это называлось кодекс ценностей, если я правильно помню.
Первый вопрос: что же такое система ценностей?
В математике есть аксиомы: между любыми двумя точками можно провести прямую; через три точки не лежащие на одной прямой — плоскость... Когда аксиомы определены, можно строить теорию, которая формулирует наборы теорем, вытекающих из аксиом.
Было бы прикольно иметь аксиомы для жизни. Но люди и мир не так идеальны как математика, поэтому сложно составить непротиворечивую систему аксиом для человека. Зато, исходя из поступков и предпочтений людей в прошлом, можно подмечать, что для кого-то деньги важнее славы, а для другого знания важнее денег, а для третьего семья важнее знаний и тд.
Так вот ценности для себя я определяю как набор утверждений:
- я люблю решать интересные задачки
- я люблю деньги
- я не люблю проигрывать
…
Причем между данными утверждениями определен порядок (хотя бы частично), т.е. я могу любить деньги больше, чем не любить проигрывать или наоборот.
Когда ценности определены, гораздо проще принимать решения по жизни, не метаться и не сожалеть. Например, вы футболист и вам предлагают слить матч за деньги. Если вы любите деньги больше побед, то вы с бОльшей вероятностью согласитесь слить матч, потому что это укладывается в вашу систему ценностей.
Второй вопрос: какая у меня система ценностей?
Так вот сегодня я понял, что хоть и обрисовал для себя идею ценностей, я так и не сформулировал их в явном виде на бумаге. С кем вообще такие вопросы обсуждают? Это к психологам, философам или коучам?)
Ссылка на интервью
👍7
Вышла статья про DALL-E 3
Суть в том, что модели вроде Stable Diffusion, Midjourney и далее по списку часто игнорируют слова в промптах. Вызвано это тем, что они обучались на датасетах из пар <картинка, текст>, где текст зачастую брался из HTML-тега alt text. А как мы знаем, далеко не всегда alt text заполняется качественно. А даже если и заполняется, обычно там есть только краткое описание без деталей про фон, свет, текстуру и тд, которые так важны для контроля генерации.
Авторы обучили “некоторую LLM” генерировать текстовые описания к картинкам. Для этого они использовали CLIP-эмбединги картинок и текстовые описания из интернета. Далее они затюнили LLM на небольшом датасете из хороших, очень детальных описаний картинок.
С помощью полученной LLM авторы разметили новый датасет из пар <картинка, текст>, где 95% текстов были сгенерированы, а оставшиеся 5% состояли из alt text для регуляризации. На этом датасете и обучали DALL-E 3. Качество в процессе измеряли с помощью новой метрики CLIP-S.
На инференсе, чтобы не выбиваться из распределения длинных, детализированных промптов, ваш входной промпт “апскейлят” с помощью GPT-4. Условно, вы пишите “кот в сапогах”, а DALL-E 3 на вход получит “кот в слегка потертых сапогах из коричневой кожи, очень детализированный мех, студийное освещение, монохромный фон”.
Про архитектуру самой модели и процесс обучения информации почти нет.
Статья
Суть в том, что модели вроде Stable Diffusion, Midjourney и далее по списку часто игнорируют слова в промптах. Вызвано это тем, что они обучались на датасетах из пар <картинка, текст>, где текст зачастую брался из HTML-тега alt text. А как мы знаем, далеко не всегда alt text заполняется качественно. А даже если и заполняется, обычно там есть только краткое описание без деталей про фон, свет, текстуру и тд, которые так важны для контроля генерации.
Авторы обучили “некоторую LLM” генерировать текстовые описания к картинкам. Для этого они использовали CLIP-эмбединги картинок и текстовые описания из интернета. Далее они затюнили LLM на небольшом датасете из хороших, очень детальных описаний картинок.
С помощью полученной LLM авторы разметили новый датасет из пар <картинка, текст>, где 95% текстов были сгенерированы, а оставшиеся 5% состояли из alt text для регуляризации. На этом датасете и обучали DALL-E 3. Качество в процессе измеряли с помощью новой метрики CLIP-S.
На инференсе, чтобы не выбиваться из распределения длинных, детализированных промптов, ваш входной промпт “апскейлят” с помощью GPT-4. Условно, вы пишите “кот в сапогах”, а DALL-E 3 на вход получит “кот в слегка потертых сапогах из коричневой кожи, очень детализированный мех, студийное освещение, монохромный фон”.
Про архитектуру самой модели и процесс обучения информации почти нет.
Статья
👍33🔥4❤1🤝1
Жалко у меня не было такой фичи в университетские годы. В ChatGPT теперь можно подавать скриншоты формул, а он будет объяснять их простыми словами и писать код с реализацией — красота.
👍24🔥11
Adobe Firefly 2
Adobe недавно проводили конференцию, где рассказывали про свои GenAI новинки:
- Inpaint редактирование видео, когда вы можете пририсовать галстук или стереть людей с заднего плана
- Замена сцены: комбинирование видео и NeRF, когда вы берете двигающегося человека из видео и вставляете его в новое окружение, сгенерированное нерфом
- Project Posable: продвинутый pose editor, который в пару кликов позволяет посадить человека в нужной позе на кресло, даже если вы не умеете в 3D
- Обновленные модели для 2D генерации
- Генеративная векторная графика и шрифты
Такие дела: Видео
Adobe недавно проводили конференцию, где рассказывали про свои GenAI новинки:
- Inpaint редактирование видео, когда вы можете пририсовать галстук или стереть людей с заднего плана
- Замена сцены: комбинирование видео и NeRF, когда вы берете двигающегося человека из видео и вставляете его в новое окружение, сгенерированное нерфом
- Project Posable: продвинутый pose editor, который в пару кликов позволяет посадить человека в нужной позе на кресло, даже если вы не умеете в 3D
- Обновленные модели для 2D генерации
- Генеративная векторная графика и шрифты
Такие дела: Видео
🔥11
The International
Сейчас будет ностальгии пост про дотку.
Во-первых, грац Team Spirit, пацаны в этом году были на две головы выше всех остальных. Особенно запомнился Yatoro на муэрте с VP и на морфе в матче с LGD. У чела огроменные яйца, хз как он вообще с такими ходит.
У меня длинная совместная история с дотой. Я познакомился с игрой в 2009 году, когда учился в 7 классе. Тогда она называлась DotA Allstars и представляла из себя карту в Warcraft 3. Меня сильно затянуло. Я играл днем и ночью, сначала на Battle net, затем Garena, а потом ICCup, где я поднял 8к птс без единого поражения. Мы с друзьями предпочитали ходить вместо уроков в компьютерный клуб 4Game на ВДНХ и Playground на белорусской, а на вписках обсуждали моменты из wodota. Дошло до того, что в 8 классе я не сдал летний экзамен по физике и меня выгнали из физмат лицея.
В 2011 году Valve анонсировали Dota 2 и первый The International, где победитель получал $1M — это был новый уровень. Я мечтал стать про-игроком. Осенью того же года я получил заветный ключ от Dota 2. Мой пик пришелся на 11 класс — 2013 год. Я играл на миде и carry, обыгрывал в паблике Aliance.s4 — чемпиона TI 3, катал на лигах с NaVi.XBOCT — чемпионом TI 1, и руинил катки Miracle — будущему чемпиону TI 2017 и лучшему игроку в истории на мой вкус, про которого тогда еще никто не знал.
Параллельно в том же 2013 году я стал призером олимпиады МФТИ по физике и поступил на ФКН ВШЭ, который предпочел Физтеху. На первом курсе было сложно. После второго модуля (1 семестра) я попал на комиссию по дискретной математике к некому Шварцу — обиженному жизнью челу, который чуть не кикнул меня с вуза. В тот момент я решил не повторять школьных ошибок и притормозил с амбициями дотера.
Но любовь к игре никуда не делась. В 2017 году я написал диплом, который вылился в научную статью, где анализировал вклад игроков в победу в командных видах спорта на примере Dota 2. Сама работа вышла так себе, но зато теперь у меня есть 60 цитат в международных научных журналах. А самое главное, что благодаря этой дипломной работе я попал в стартап GOSU AI, который круто изменил мою жизнь. Но это уже совсем другая история)
Сейчас будет ностальгии пост про дотку.
Во-первых, грац Team Spirit, пацаны в этом году были на две головы выше всех остальных. Особенно запомнился Yatoro на муэрте с VP и на морфе в матче с LGD. У чела огроменные яйца, хз как он вообще с такими ходит.
У меня длинная совместная история с дотой. Я познакомился с игрой в 2009 году, когда учился в 7 классе. Тогда она называлась DotA Allstars и представляла из себя карту в Warcraft 3. Меня сильно затянуло. Я играл днем и ночью, сначала на Battle net, затем Garena, а потом ICCup, где я поднял 8к птс без единого поражения. Мы с друзьями предпочитали ходить вместо уроков в компьютерный клуб 4Game на ВДНХ и Playground на белорусской, а на вписках обсуждали моменты из wodota. Дошло до того, что в 8 классе я не сдал летний экзамен по физике и меня выгнали из физмат лицея.
В 2011 году Valve анонсировали Dota 2 и первый The International, где победитель получал $1M — это был новый уровень. Я мечтал стать про-игроком. Осенью того же года я получил заветный ключ от Dota 2. Мой пик пришелся на 11 класс — 2013 год. Я играл на миде и carry, обыгрывал в паблике Aliance.s4 — чемпиона TI 3, катал на лигах с NaVi.XBOCT — чемпионом TI 1, и руинил катки Miracle — будущему чемпиону TI 2017 и лучшему игроку в истории на мой вкус, про которого тогда еще никто не знал.
Параллельно в том же 2013 году я стал призером олимпиады МФТИ по физике и поступил на ФКН ВШЭ, который предпочел Физтеху. На первом курсе было сложно. После второго модуля (1 семестра) я попал на комиссию по дискретной математике к некому Шварцу — обиженному жизнью челу, который чуть не кикнул меня с вуза. В тот момент я решил не повторять школьных ошибок и притормозил с амбициями дотера.
Но любовь к игре никуда не делась. В 2017 году я написал диплом, который вылился в научную статью, где анализировал вклад игроков в победу в командных видах спорта на примере Dota 2. Сама работа вышла так себе, но зато теперь у меня есть 60 цитат в международных научных журналах. А самое главное, что благодаря этой дипломной работе я попал в стартап GOSU AI, который круто изменил мою жизнь. Но это уже совсем другая история)
❤23🔥6👍3
Сейчас прочувствовал, почему пару лет назад я уходил из разработки в манагерство.
Знаете вот это чувство, когда неделю пилишь фичу, выкатываешь pull request и
- Манагер: а давай еще вот такую штуку запилим,
- Соседний разраб: а давай еще вот так навернем,
- Какие-то левые чуваки: а давай, а давай, а давай…
И вот ты ловишь себя на мысли, что две недели пилишь одну страничку, навалил 100 коммитов, а “хотелки” все не заканчиваются — чисто рабство.
То ли дело быть манагером. Сидишь такой, в носу ковыряешь, “умные” хотелки выдаешь, кайфуешь.
Знаете вот это чувство, когда неделю пилишь фичу, выкатываешь pull request и
- Манагер: а давай еще вот такую штуку запилим,
- Соседний разраб: а давай еще вот так навернем,
- Какие-то левые чуваки: а давай, а давай, а давай…
И вот ты ловишь себя на мысли, что две недели пилишь одну страничку, навалил 100 коммитов, а “хотелки” все не заканчиваются — чисто рабство.
То ли дело быть манагером. Сидишь такой, в носу ковыряешь, “умные” хотелки выдаешь, кайфуешь.
😁15💯4🤡1
Там в OpenAI правление уволило CEO Сэма Альтмана. Вроде как за ним ушел Грэг Брокман. Про Илью Суцкевера пока нет инфы.
Либо это преждевременная первоапрельская шутка, либо в OpenAI случился политический переворот.
Upd: есть гипотеза, что Суцкевер организовал переворот по двум причинам: OpenAI слишком сильно отошли от нон-профит миссии создавать AGI в сторону работы на прибыль + Альтман форсил выкатывать новые GPT-фичи без должной проверки безопасности.
Статья в их блоге
Либо это преждевременная первоапрельская шутка, либо в OpenAI случился политический переворот.
Upd: есть гипотеза, что Суцкевер организовал переворот по двум причинам: OpenAI слишком сильно отошли от нон-профит миссии создавать AGI в сторону работы на прибыль + Альтман форсил выкатывать новые GPT-фичи без должной проверки безопасности.
Статья в их блоге
🤯5🗿3👏2
output_tile.gif
17.8 MB
Text-to-Video
Выкатили Stable Video Diffusion — модель для генерации коротких видео по тексту/картинке. Качество примерно такое же, что и у RunwayML Gen-2. Веса в открытом доступе, но лицензия research only.
Блог
Код
Веса
Выкатили Stable Video Diffusion — модель для генерации коротких видео по тексту/картинке. Качество примерно такое же, что и у RunwayML Gen-2. Веса в открытом доступе, но лицензия research only.
Блог
Код
Веса
👍6
Дмитрий Савостьянов Вещает
Там в OpenAI правление уволило CEO Сэма Альтмана. Вроде как за ним ушел Грэг Брокман. Про Илью Суцкевера пока нет инфы. Либо это преждевременная первоапрельская шутка, либо в OpenAI случился политический переворот. Upd: есть гипотеза, что Суцкевер организовал…
Альтман с Брокманом возвращаются в OpenAI.
Остаётся вопрос, уйдет ли Chief Scientist (главный мозг конторы) Илья Суцкевер и какова вообще была его роль во всем переполохе?
https://x.com/openai/status/1727206187077370115?s=46&t=zKsuhjPsLNK5nNwd2FB7rQ
https://x.com/ilyasut/status/1726590052392956028?s=46&t=zKsuhjPsLNK5nNwd2FB7rQ
Остаётся вопрос, уйдет ли Chief Scientist (главный мозг конторы) Илья Суцкевер и какова вообще была его роль во всем переполохе?
https://x.com/openai/status/1727206187077370115?s=46&t=zKsuhjPsLNK5nNwd2FB7rQ
https://x.com/ilyasut/status/1726590052392956028?s=46&t=zKsuhjPsLNK5nNwd2FB7rQ
😁5🤯1
Рисовать графики через ChatGPT в 2 часа ночи — чистейший балдеж.
❤10😱3