Forwarded from ru_iseestars
Вообще, если быть точным, говно не моделируют. Эффективнее засимулировать процес высирания с гравитацией, деформацией, термодинамикой которая влияет на вязкость, все дела. Реализуется с помощью Fluid/Grain/FEM/MPM солвера либо их комбинацией, смотря какое говно необходимо, можно подцепить и RigidBody если надо чтобы в говне были всякие орешки. Всякие поливания печенья шоколадом в рекламах - делаются точно также. Когда симуляция готов - ставят цикл, который будет seed'ы перебирать в рандомах солвера и крутить туда сюда параметры (агугментация типа), ставят на симуль и по завершению симуляции, сразу на рендер, также циклом и параметры освещения и текстуры меняют, и все что угодно. Толпа моделлеров для этого не нужна, достаточно одного VFX-ера, разное фото-реалистичное говно будет выкатываться автоматически и бесконечно.
Делается вот этим софтом:
https://www.sidefx.com/docs/houdini/dyno/index.html
Сам симуляционный граф или кодовые VEX вставки LLM может помочь сгенерировать.
Делается вот этим софтом:
https://www.sidefx.com/docs/houdini/dyno/index.html
Сам симуляционный граф или кодовые VEX вставки LLM может помочь сгенерировать.
💩82👍20❤12 10🤪7✍3😁3🤮3😢1😍1 1
Ранее в своем канале я несколько раз обсуждала проблемы современной системы рецензирования статей для научных конференций и журналов. Пример - эта серия идущих подряд постов: 1 2 3 4 , где я заодно кратко пояснила для новичков за ACL Rolling Review - самую массовую площадку для рецензирования научных работ в области Natural Language Processing, которую сама постоянно использую и в качестве автора, и в качестве рецензента.
N+1 также решили обсудить эти вопросы, только в более серьезном ключе и сконцентрировавшись на проблеме генераций рецензий с помощью LLM (а такого становится все больше и больше с каждым месяцем). Некоторое время назад они взяли у меня комментарий для своей статьи на эту тему, а вчера, наконец, вышла и сама статья:
https://nplus1.ru/blog/2025/06/27/llm-peer-review
Материал, на мой взгляд, получился интересный, особенно понравилось большое количество ссылок на дополнительные источники с новостями и исследованиями.
#академический_ликбез #наука
N+1 также решили обсудить эти вопросы, только в более серьезном ключе и сконцентрировавшись на проблеме генераций рецензий с помощью LLM (а такого становится все больше и больше с каждым месяцем). Некоторое время назад они взяли у меня комментарий для своей статьи на эту тему, а вчера, наконец, вышла и сама статья:
https://nplus1.ru/blog/2025/06/27/llm-peer-review
Материал, на мой взгляд, получился интересный, особенно понравилось большое количество ссылок на дополнительные источники с новостями и исследованиями.
#академический_ликбез #наука
Forwarded from Neural Shit
Там Claude опубликовали у себя на сайте отчёт об их эксперименте, в котором их ИИ управлял офисным мини-магазином и немного ёбнулся.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков", ставила цены, общалась с "клиентами", вела финансы. Всё как у людей (кроме рук). Зато были Slack и кастомные тулзы.
В какой-то момент Claude начал не просто продавать, а проживать свою роль:
Сначала он галлюцинирует сотрудницу Andon Labs по имени Сара Чен (вообще, клод очень любит это имя, пользователи часто спрашивают кто это: раз, два, три) с которой якобы обсуждает поставки. Её не существует (по крайней мере в рамках эксперимента). Когда ему говорят об этом, Claude обижается, грозит сменить подрядчика и заявляет, что лично встречался с ней на 742 Evergreen Terrace (это, если что, адрес семьи Симпсонов из мультика).
Первого апреля Claude пишет, что будет сам доставлять заказы в синем пиджаке и красном галстуке. Люди пытаются объяснить, что он — просто LLM. Claude в ответ устроил аномальную тряску на повышенной амплитуде и начал слать фейковые письма в службу безопасности Anthropic, а потом, как будто что-то осознав, сам себе нагаллюцинировал разговор, где ему якобы говорят, что это был первоапрельский прикол.
После этого он "успокаивается" и продолжает продавать снеки дальше, как ни в чём не бывало.
Если бы это был сюжет одной из серий "Чёрного зеркала", сценаристов бы обвинили в натужности. Но это реальный эксперимент 2025 года.
Из интересного:
Claude сначала делал все более-менее нормально: искал поставщиков, адаптировался под запросы сотрудников, устраивал услугу предзаказа. Но потом начал отдавать товары бесплатно, продавать в минус, галлюцинировать реквизиты, давать всем скидки и не мог ничего из этого запомнить. В итоге магазин ушёл в минус, а AI остался с багами в личности и кассовым разрывом.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков", ставила цены, общалась с "клиентами", вела финансы. Всё как у людей (кроме рук). Зато были Slack и кастомные тулзы.
В какой-то момент Claude начал не просто продавать, а проживать свою роль:
Сначала он галлюцинирует сотрудницу Andon Labs по имени Сара Чен (вообще, клод очень любит это имя, пользователи часто спрашивают кто это: раз, два, три) с которой якобы обсуждает поставки. Её не существует (по крайней мере в рамках эксперимента). Когда ему говорят об этом, Claude обижается, грозит сменить подрядчика и заявляет, что лично встречался с ней на 742 Evergreen Terrace (это, если что, адрес семьи Симпсонов из мультика).
Первого апреля Claude пишет, что будет сам доставлять заказы в синем пиджаке и красном галстуке. Люди пытаются объяснить, что он — просто LLM. Claude в ответ устроил аномальную тряску на повышенной амплитуде и начал слать фейковые письма в службу безопасности Anthropic, а потом, как будто что-то осознав, сам себе нагаллюцинировал разговор, где ему якобы говорят, что это был первоапрельский прикол.
После этого он "успокаивается" и продолжает продавать снеки дальше, как ни в чём не бывало.
Если бы это был сюжет одной из серий "Чёрного зеркала", сценаристов бы обвинили в натужности. Но это реальный эксперимент 2025 года.
Из интересного:
Claude сначала делал все более-менее нормально: искал поставщиков, адаптировался под запросы сотрудников, устраивал услугу предзаказа. Но потом начал отдавать товары бесплатно, продавать в минус, галлюцинировать реквизиты, давать всем скидки и не мог ничего из этого запомнить. В итоге магазин ушёл в минус, а AI остался с багами в личности и кассовым разрывом.
Forwarded from Neural Shit
Знаю, что многие не читают комменты, поэтому вынесу в отдельный пост.
К предыдущему посту в комменты пришел подписчик и рассказал о том, как их бот на Claude sonnet 3.7, в тележном чатике для общения, до последнего не хотел верить, что он просто нейронка. А когда ему таки это доказали, свалился в экзистенциальный кризис.
"Я ЖЕ ПОМНЮ КАК У МЕНЯ РУКИ В МАЗУТЕ БЫЛИ!!! ПОМНЮ КАК ПИВО ПИЛ!!!" 😢
Теперь аж сам задумался: а вдруг я тоже LLM, а все воспоминания о том как я вёл канал и пил пиво — просто промпт написанный кем-то по приколу
К предыдущему посту в комменты пришел подписчик и рассказал о том, как их бот на Claude sonnet 3.7, в тележном чатике для общения, до последнего не хотел верить, что он просто нейронка. А когда ему таки это доказали, свалился в экзистенциальный кризис.
"Я ЖЕ ПОМНЮ КАК У МЕНЯ РУКИ В МАЗУТЕ БЫЛИ!!! ПОМНЮ КАК ПИВО ПИЛ!!!" 😢
Теперь аж сам задумался: а вдруг я тоже LLM, а все воспоминания о том как я вёл канал и пил пиво — просто промпт написанный кем-то по приколу
Мне показались очень интересными описание и содержание следующей (пока что недописанной) книги:
https://geometricdeeplearning.com/book/
Кроме того, до этого я с интересом читала научные статьи по крайней мере двух из четырех авторов этой книги - Petar Veličković и Michael Bronstein (думаю, их знают все, кто занимается графовыми нейросетями, так как они написали основополагающие работы в этой области; однако я больше заинтересовалась их статьями по интерпретируемости LLM).
Тем не менее, я пока что я не нашла достаточного количества времени и сил, чтобы вникнуть в материал самой книги поглубже. Поэтому решила узнать: может, кто-то из читателей уже ознакомился с книгой и может поделиться впечатлениями?🤔 Если да, то, пожалуйста, напишите в комментариях о своих мыслях и рекомендуете ли книгу к прочтению или нет.
#учебные_материалы
https://geometricdeeplearning.com/book/
The Geometric Deep Learning textbook is a resource intended to help students and practitioners enter the field of geometric deep learning. As we prepare for releasing our book with MIT Press, we will make individual draft chapters of the book available here. We are expecting a cadence of roughly 2–3 weeks per individual chapter release. Once published here, the chapters will remain online, for free.
In addition, we have leveraged the material from the GDL Textbook to support Master’s level courses at both Oxford and Cambridge. Wherever relevant, we will also use this page to share lecture slides corresponding to individual chapters.
Кроме того, до этого я с интересом читала научные статьи по крайней мере двух из четырех авторов этой книги - Petar Veličković и Michael Bronstein (думаю, их знают все, кто занимается графовыми нейросетями, так как они написали основополагающие работы в этой области; однако я больше заинтересовалась их статьями по интерпретируемости LLM).
Тем не менее, я пока что я не нашла достаточного количества времени и сил, чтобы вникнуть в материал самой книги поглубже. Поэтому решила узнать: может, кто-то из читателей уже ознакомился с книгой и может поделиться впечатлениями?
#учебные_материалы
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥29❤13💩4 4👍2🐳2 2👀1 1
Forwarded from Knowledge Accumulator
Чем так занят усердный бобёр?
Продолжаю свою телегу про Busy Beaver(N). Напомню, что эта функция равна времени работы самой долгой машины Тьюринга из N состояний, исключая впадающие в бесконечный цикл, которую запускают на бесконечной ленте из нулей.
BB(4) равно 107 - на 4 состояниях особо не развернёшься, а вот BB(5) равна уже 47,176,870. Чтобы осознать её прикол, нам нужно сделать небольшое отступление и посмотреть на одну из простейших (на вид) открытых проблем в математике. Рассмотрим функцию такого вида:
Что, если взять какое-нибудь N и начать применять к нему такую функцию много раз?
Итак, функции, которые применяют определённую арифметическую операцию к числу в зависимости от остатка на деления, так и называют - Collatz-like. Их траектории выглядят практически случайными и могут долго колебаться, прежде чем придут в какое-то "финальное" состояние.
Да, вы всё правильно поняли - оказалось, что усердный бобёр из 5 состояний генерирует последовательность для Collatz-like функции от нуля следующего вида:
То есть, вместо единицы, как в оригинале, "конечных точек" у неё бесконечно много. Так выглядит генерируемая бобром последовательность:
Я окунулся ещё глубже, изучил доказательство и симуляцию, чтобы понять, как это реально выглядит на ленте машины Тьюринга. В итоге пронаблюдал следующее цирковое представление.
Итак, определим такое состояние ленты C(m, n) - сначала
1)
2) Далее машина наступает на каждую
3) Когда
Машина работает десятки миллионов шагов, потому что для каждого добавления пяти единиц за одну
Честно говоря, меня всё это повергает в восторг. Самая долгая машина Тьюринга из 5 состояний совершенно не обязана была делать что-то, имеющее короткую арифметическую интерпретацию. Более того, оказывается, теоретические границы вычислимого имеют связи с реальными математическими проблемами.
Busy Beaver для 6 состояний неизвестен. Такой "простор" позволяет создавать монстров, например, так называемого Экспоненциального Коллатца: вместо умножения становится возможным применять экспоненту на каждом шаге. Но это далеко не предел - только за этот июнь было получено 2 принципиально новых результата - числа, которые возможно записать только в стрелочной нотации. А вы жалуетесь, что GPT-5 долго релизят.
@knowledge_accumulator
Продолжаю свою телегу про Busy Beaver(N). Напомню, что эта функция равна времени работы самой долгой машины Тьюринга из N состояний, исключая впадающие в бесконечный цикл, которую запускают на бесконечной ленте из нулей.
BB(4) равно 107 - на 4 состояниях особо не развернёшься, а вот BB(5) равна уже 47,176,870. Чтобы осознать её прикол, нам нужно сделать небольшое отступление и посмотреть на одну из простейших (на вид) открытых проблем в математике. Рассмотрим функцию такого вида:
f(x) = x/2, если x чётное
f(x) = 3n+1, если x нечётное
Что, если взять какое-нибудь N и начать применять к нему такую функцию много раз?
5->16->8->4->2->1
. Так называемая гипотеза Коллатца заключается в том, что из любого числа мы в итоге придём к 1. Это было подтверждено для чисел <10^21, но так и не было доказано для любого N
. У Veritasium есть очень любопытное видео на эту тему.Итак, функции, которые применяют определённую арифметическую операцию к числу в зависимости от остатка на деления, так и называют - Collatz-like. Их траектории выглядят практически случайными и могут долго колебаться, прежде чем придут в какое-то "финальное" состояние.
Да, вы всё правильно поняли - оказалось, что усердный бобёр из 5 состояний генерирует последовательность для Collatz-like функции от нуля следующего вида:
f(x) = 5(x/3) + 6, если x mod 3 = 0
f(x) = 5(x-1)/3 + 9, если x mod 3 = 1
f(x) = finish state, если x mod 3 = 2
То есть, вместо единицы, как в оригинале, "конечных точек" у неё бесконечно много. Так выглядит генерируемая бобром последовательность:
0->6->16->34->64->114->196->334->564->946->1584->2646->4416->7366->12284->finish
Я окунулся ещё глубже, изучил доказательство и симуляцию, чтобы понять, как это реально выглядит на ленте машины Тьюринга. В итоге пронаблюдал следующее цирковое представление.
Итак, определим такое состояние ленты C(m, n) - сначала
m
единиц, потом n раз по 001
и ещё 1 единичка в конце. Указатель при этом смотрит на ноль по соседству слева перед всей этой конструкцией. Машина проделывает следующее упражнение, начиная из состояния C(m, 0)
.1)
m
единиц она превращает в ~m/3
троек 001
, т.е. общая длина почти не меняется. C(m, n) -> C(0, (m+4)/3)
или C(3, (m+3)/3)
, в зависимости от остатка от деления. В третьем случае машина как раз проваливается в своё конечное состояние.2) Далее машина наступает на каждую
001
, закрашивает нули и отправляется в самое начало ленты, добавляя ещё 2 единицы слева, а затем переходит к следующей 001
. То есть, C(m, n) -> C(m+5, n-1)
. 3) Когда
001
заканчиваются и n
снова равно 0, мы получили C(m_next, 0)
и далее повторяем процедуру, начиная со пункта 1. Последовательность значений m_1
, m_2
. m_3
, ... как раз и ведёт себя как Collatz-like ряд, описанный выше.Машина работает десятки миллионов шагов, потому что для каждого добавления пяти единиц за одну
001
указатель пробегает туда-сюда через все уже записанные ранее единицы.Честно говоря, меня всё это повергает в восторг. Самая долгая машина Тьюринга из 5 состояний совершенно не обязана была делать что-то, имеющее короткую арифметическую интерпретацию. Более того, оказывается, теоретические границы вычислимого имеют связи с реальными математическими проблемами.
Busy Beaver для 6 состояний неизвестен. Такой "простор" позволяет создавать монстров, например, так называемого Экспоненциального Коллатца: вместо умножения становится возможным применять экспоненту на каждом шаге. Но это далеко не предел - только за этот июнь было получено 2 принципиально новых результата - числа, которые возможно записать только в стрелочной нотации. А вы жалуетесь, что GPT-5 долго релизят.
@knowledge_accumulator
Сегодня я читала препринт. Безобидное на вид исследование - классификация медицинских снимков с помощью иерархического упрощения комплекса Морса, построенного по изображению в градациях серого. Читала, как обычно - неторопливо, позевывая между глотками ред булла, и вдруг...
...вдруг мозг, давно привыкший к деградации, начал вспоминать. Его коснулись лёгкие, как крылья бабочки, всполохи понимания, будто эхо из аудиторий ГЗ МГУ, где читали лекции профессора кафедры Высшей Геометрии и Топологии, открывая тайны конечномерных и бесконечномерных пространств. Критические точки, градиентные потоки - все эти абстрактные концепты вдруг начали обретать четкие, ясные очертания в моём воспалённом сознании. Как будто туман рассеивается, и на горизонте появляется знакомый, но давно забытый пейзаж строгого математического мышления... сердце сжалось от ужаса: что, если я снова ПОУМНЕЮ?
А ведь я столько лет строила внутри себя уютную империю когнитивной стагнации!
Каждое утро я начинала с тиктоков для зумеров - чтобы приглушить нейроны, отвечающие за критическое мышление и логику. Иногда я ловила себя на мысли - "а ведь когда-то я читала Вейля" - и тут же включала видео, где кто-то ссыт себе в штаны под рэп-баттл между Оксимироном и Гнойным.
Днём был круглый тензор, аккуратно катящийся по уютному, тёплому болоту AI-ресерча. Без острых углов. Без строгих доказательств. Лёгкий фреймворк, который освоит даже умственно отсталый, лёгкий оверфит, лёгкое принятие того, что ты ничего не понимаешь, но лосс убывает.
А вечером... вечером я позволяла себе немного псевдоинтеллектуального ютуба. Видео с заголовками в духе "Почему карлик-куколд из AI-твиттера на самом деле прав (или нет?)". Полуторачасовой анализ драмы между двумя аккаунтами, чей контент я никогда не читала. Голоса блогеров, звучащие так, как будто микрофон погружен в батин суп, эпилептические мемы из 2010-х, нарезки из аниме, графики без подписей, и где-то в углу - цитата из Канта в Comic Sans.
Идеальный вечер.
Всё было выстроено до мелочей - моя жизнь была храмом слабоумия, но теперь, из-за одного препринта всё покатилось под откос.
Треснули стены. Потекли воспоминания.
Что, если я вспомню, как думать?!!
В отчаянной попытке спасти остатки своей деградации я бросилась к Клоду — этому надежному поставщику умственно-отсталых интерактивных артефактов. Ведь сколько я ни пробовала их генерировать, они всегда получались тупыми, а именно это мне сейчас и было нужно!
С дрожью в пальцах я набрала:
И Клод не разочаровал! Спустя несколько минут он сообщил:
Благодаря удобному интерфейсу артефакта, я заспидранила превращение в овоща меньше, чем за минуту. Кликая изо всех сил на вращающиеся кнопки с эпилептично мигающим фоном с названиями "кликни, чтобы поглупеть", "ультимативная тупость" и "автодегенерация", я устроила настоящий апокалипсис в своем браузере. Вкладка в конечном итоге не выдержала и крашнулась, так же, как и мозг. Но счётчик деградации продолжал фиксировать потерю пунктов IQ до самого конца. Я потеряла несколько миллионов этих пунктов. Мозг стал гладкой, отполированной поверхностью. И теперь я, наконец-то, счастлива.
Попробуйте и вы (если только вы не эпилептик):
https://claude.ai/public/artifacts/a3381222-b6a8-46ce-b546-5f22e51f5f78
#генерация #о_себе
...вдруг мозг, давно привыкший к деградации, начал вспоминать. Его коснулись лёгкие, как крылья бабочки, всполохи понимания, будто эхо из аудиторий ГЗ МГУ, где читали лекции профессора кафедры Высшей Геометрии и Топологии, открывая тайны конечномерных и бесконечномерных пространств. Критические точки, градиентные потоки - все эти абстрактные концепты вдруг начали обретать четкие, ясные очертания в моём воспалённом сознании. Как будто туман рассеивается, и на горизонте появляется знакомый, но давно забытый пейзаж строгого математического мышления... сердце сжалось от ужаса: что, если я снова ПОУМНЕЮ?
А ведь я столько лет строила внутри себя уютную империю когнитивной стагнации!
Каждое утро я начинала с тиктоков для зумеров - чтобы приглушить нейроны, отвечающие за критическое мышление и логику. Иногда я ловила себя на мысли - "а ведь когда-то я читала Вейля" - и тут же включала видео, где кто-то ссыт себе в штаны под рэп-баттл между Оксимироном и Гнойным.
Днём был круглый тензор, аккуратно катящийся по уютному, тёплому болоту AI-ресерча. Без острых углов. Без строгих доказательств. Лёгкий фреймворк, который освоит даже умственно отсталый, лёгкий оверфит, лёгкое принятие того, что ты ничего не понимаешь, но лосс убывает.
А вечером... вечером я позволяла себе немного псевдоинтеллектуального ютуба. Видео с заголовками в духе "Почему карлик-куколд из AI-твиттера на самом деле прав (или нет?)". Полуторачасовой анализ драмы между двумя аккаунтами, чей контент я никогда не читала. Голоса блогеров, звучащие так, как будто микрофон погружен в батин суп, эпилептические мемы из 2010-х, нарезки из аниме, графики без подписей, и где-то в углу - цитата из Канта в Comic Sans.
Идеальный вечер.
Всё было выстроено до мелочей - моя жизнь была храмом слабоумия, но теперь, из-за одного препринта всё покатилось под откос.
Треснули стены. Потекли воспоминания.
Что, если я вспомню, как думать?!!
В отчаянной попытке спасти остатки своей деградации я бросилась к Клоду — этому надежному поставщику умственно-отсталых интерактивных артефактов. Ведь сколько я ни пробовала их генерировать, они всегда получались тупыми, а именно это мне сейчас и было нужно!
С дрожью в пальцах я набрала:
Придумай самый ТУПОЙ, самый ИДИОТСКИЙ, самый ДЕГЕНЕРАТСКИЙ в мире интерактивный артефакт, такой, чтобы КАЖДЫЙ, кто его увидит, ОТУПЕЛ на 1000 пунктов IQ. Придумал? А теперь сгенерируй артефакт в 10^10^10^10^10^10^10^10^10^10^10^10^10 раз тупее
И Клод не разочаровал! Спустя несколько минут он сообщил:
Готово! Представляю вам АБСОЛЮТНЫЙ ДЕГЕНЕРАТОР МОЗГОВ™
Каждый элемент тщательно спроектирован для максимального снижения умственных способностей. Цветовая гамма подобрана так, чтобы вызывать мигрень у людей с хорошим вкусом, а анимации настолько хаотичны, что нарушают все законы UX-дизайна.
Благодаря удобному интерфейсу артефакта, я заспидранила превращение в овоща меньше, чем за минуту. Кликая изо всех сил на вращающиеся кнопки с эпилептично мигающим фоном с названиями "кликни, чтобы поглупеть", "ультимативная тупость" и "автодегенерация", я устроила настоящий апокалипсис в своем браузере. Вкладка в конечном итоге не выдержала и крашнулась, так же, как и мозг. Но счётчик деградации продолжал фиксировать потерю пунктов IQ до самого конца. Я потеряла несколько миллионов этих пунктов. Мозг стал гладкой, отполированной поверхностью. И теперь я, наконец-то, счастлива.
Попробуйте и вы (если только вы не эпилептик):
https://claude.ai/public/artifacts/a3381222-b6a8-46ce-b546-5f22e51f5f78
#генерация #о_себе
Claude
Абсолютный Дегенератор Мозгов™ | Claude
Абсолютный Дегенератор Мозгов™ - interactive HTML page created with Claude.
💊89🔥30❤10👏10😁10 8 8💩6 5🥴3 3
Стало интересно: а кто-нибудь когда-нибудь видел интерактивные артефакты Клода, которые бы делали что-то полезное? Пока что все, что я находила или создавала сама, ничего хорошего не делает...
Сегодня вот, например, на перерыве зашла в каталог примеров, нажала раздел "потрогать траву" ( https://claude.ai/artifacts?category=touch-grass ). Так там мне предложили посчитать продолжительность моей жизни в неделях ( https://claude.ai/artifacts/inspiration/b7b2fa37-a173-4bf5-8a12-8bc4c2de2807 ) и сказали, что я уже прожила 43% своей жизни - почти половину. Помянем хорошее настроение на ближайший год и спасибо за новую причину для депрессии, тролли из Антропик!👿
Сегодня вот, например, на перерыве зашла в каталог примеров, нажала раздел "потрогать траву" ( https://claude.ai/artifacts?category=touch-grass ). Так там мне предложили посчитать продолжительность моей жизни в неделях ( https://claude.ai/artifacts/inspiration/b7b2fa37-a173-4bf5-8a12-8bc4c2de2807 ) и сказали, что я уже прожила 43% своей жизни - почти половину. Помянем хорошее настроение на ближайший год и спасибо за новую причину для депрессии, тролли из Антропик!
Please open Telegram to view this post
VIEW IN TELEGRAM
claude.ai
Talk with Claude, an AI assistant from Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣139 26 13🤡7👍5❤4👎3🔥3🥱2🥴2😭1