Forwarded from здесь были драконы
Кто для вас является более надёжным источником информации в описанной познавательной ситуации?
Anonymous Poll
50%
Василий
50%
Андрей
Forwarded from Непрерывное математическое образование
Тарасу Евгеньевичу Панову исполняется сегодня 50 лет
в честь этого в МГУ 11-12 февраля проходит мини-конференция https://www.mathnet.ru/rus/conf2545
а здесь пусть будет обзор https://www.mathnet.ru/rus/rm320 «Действия торов, комбинаторная топология и гомологическая алгебра» Бухштабера и Панова
в честь этого в МГУ 11-12 февраля проходит мини-конференция https://www.mathnet.ru/rus/conf2545
а здесь пусть будет обзор https://www.mathnet.ru/rus/rm320 «Действия торов, комбинаторная топология и гомологическая алгебра» Бухштабера и Панова
🍾32 8
⬆️ Тарас Евгеньевич - мой первый научный руководитель, он очень хороший! (Не путать со вторым научным руководителем, который плохой 😡). Он всегда очень интересно объяснял мне сложные вещи из топологии, и книга про торическую топологию у него тоже хорошая. А ещё под его редакцией в 2011м на русский был переведен знаменитый учебник Хатчера по алгебраической топологии 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥73🫡18 8❤5 4😡1
Зашла вчера вечером с другом в букинистический магазин на Арбате и обнаружила там интересную книгу по математике, обложку которой вы можете видеть на рис. 1. ☺️
Книга раскрывает нам удивительный мир малочленов: оказывается, вопреки стереотипам, малочлены ничем не хуже многочленов, ведь про них тоже можно сформулировать и доказать множество интересных математических результатов и получить ничуть не меньшее интеллектуальное удовольствие (см. рис. 2-3)!
P.S. В комментариях выложу бонус - фотографии другой книги из того же магазина, которая поможет вам вернуться в 2007й и узнать, как перейти с компьютером на "Ты", найти онлайн-кров и поделиться своими мыслями и знаниями с миром через веб-дневник.
#учебные_материалы
Книга раскрывает нам удивительный мир малочленов: оказывается, вопреки стереотипам, малочлены ничем не хуже многочленов, ведь про них тоже можно сформулировать и доказать множество интересных математических результатов и получить ничуть не меньшее интеллектуальное удовольствие (см. рис. 2-3)!
P.S. В комментариях выложу бонус - фотографии другой книги из того же магазина, которая поможет вам вернуться в 2007й и узнать, как перейти с компьютером на "Ты", найти онлайн-кров и поделиться своими мыслями и знаниями с миром через веб-дневник.
#учебные_материалы
10🤣62 29👍19❤13 5🍌4🤡3🤓3🆒3 2
Forwarded from сладко стянул
Романтика для пьяниц: стартуя в произвольных точках Манхэттена или Майкопа и наугад перемещаясь между барами (по одному бару на каждом перекрестке), он и она наверняка встретятся. (Потому что их разность — тоже симметричное случайное блуждание по Z², так что см. например https://arxiv.org/abs/1301.3916 )
Город будущего трехмерен, там это уже неверно. Можно почти наверняка сказать только следующее: бесконечно много баров, которые посетит и он, и она (но, видимо, не одновременно💔): https://doi.org/10.1007/BF02020942
Город будущего трехмерен, там это уже неверно. Можно почти наверняка сказать только следующее: бесконечно много баров, которые посетит и он, и она (но, видимо, не одновременно💔): https://doi.org/10.1007/BF02020942
arXiv.org
Polya's random walk theorem
This note presents a proof of Pólya's random walk theorem using classical methods from special function theory and asymptotic analysis.
❤36🤔8👍4😁3 3🤮2🍓2 2💔1
Сижу себе спокойно, редактирую документ в overleaf (сайт, на котором можно править latex-документы совместно с несколькими коллегами), никому не мешаю... и ВНЕЗАПНО прямо поверх текста выпрыгивает эта штука, которая говорит, что я ГОРЮ. Уже не в первый раз такое происходит, но я каждый раз вздрагиваю.
Хотя не то, чтобы эта табличка была не права: после таких скриммеров я и правда горю пониже спины.
Хотя не то, чтобы эта табличка была не права: после таких скриммеров я и правда горю пониже спины.
Forwarded from Sinекура
С тех самых пор, как мой курс искусственного интеллекта более или менее оформился, я мечтал написать книгу, учебник, который бы начинался от азов и понемногу строил здание машинного обучения Больших форм я никогда не боялся, так что начал книгу с энтузиазмом, но, как это всегда бывает, оказалось, что работы во много раз больше, чем представляется поначалу. Активно писал я её несколько лет, с большими перерывами и депрессивными эпизодами, потом ещё несколько месяцев доделывал вёрстку, вносил замечания редактора и всё такое.
И вот — готово. Книга "Машинное обучение: основы" подписана в печать, доступна для предзаказа, должна физически появиться во второй половине марта. 600 страниц (25 из них, правда, список литературы), шесть больших глав. Полное оглавление на сайте издательства тоже выложено.
https://www.piter.com/collection/all/product/mashinnoe-obuchenie-osnovy
Эта книга — существенно расширенный первый семестр моего курса. Кроме основ байесовского вывода, линейной и логистической регрессии и тому подобного, о чём я неизбежно рассказываю каждый год, в книге есть ещё много разных сюжетов — объясняющих, развивающих и иллюстрирующих. И продвинуто-математических, и более "общечеловеческих": история AI, эффект "горячей руки", кризис воспроизводимости в науке, разоблачение закона Ципфа, робастные виды регрессии, оценка Джеймса-Штейна, проспективные и ретроспективные исследования... Эпиграфы и котики тоже прилагаются. Главное для меня, наверное, в том, что я старался писать книгу, которую было бы интересно читать, даже (а может, особенно) если не пытаться проследить за всеми выводами и формулами.
Здесь наверняка будет ещё много постов об этой книге, уж точно сфотографирую, когда получу реальные экземпляры. И это как раз тот случай, когда очень прошу всех расшаривать, давать ссылки на канал и на книжку. Очень надеюсь, что успею написать что-нибудь ещё, пока писать книги ещё не вовсе бессмысленно; эту, кажется, успел.
И вот — готово. Книга "Машинное обучение: основы" подписана в печать, доступна для предзаказа, должна физически появиться во второй половине марта. 600 страниц (25 из них, правда, список литературы), шесть больших глав. Полное оглавление на сайте издательства тоже выложено.
https://www.piter.com/collection/all/product/mashinnoe-obuchenie-osnovy
Эта книга — существенно расширенный первый семестр моего курса. Кроме основ байесовского вывода, линейной и логистической регрессии и тому подобного, о чём я неизбежно рассказываю каждый год, в книге есть ещё много разных сюжетов — объясняющих, развивающих и иллюстрирующих. И продвинуто-математических, и более "общечеловеческих": история AI, эффект "горячей руки", кризис воспроизводимости в науке, разоблачение закона Ципфа, робастные виды регрессии, оценка Джеймса-Штейна, проспективные и ретроспективные исследования... Эпиграфы и котики тоже прилагаются. Главное для меня, наверное, в том, что я старался писать книгу, которую было бы интересно читать, даже (а может, особенно) если не пытаться проследить за всеми выводами и формулами.
Здесь наверняка будет ещё много постов об этой книге, уж точно сфотографирую, когда получу реальные экземпляры. И это как раз тот случай, когда очень прошу всех расшаривать, давать ссылки на канал и на книжку. Очень надеюсь, что успею написать что-нибудь ещё, пока писать книги ещё не вовсе бессмысленно; эту, кажется, успел.
www.piter.com
Машинное обучение: основы
Вы узнаете, как методы машинного обучения получаются из основных принципов теории вероятностей, пройдёте путь от теоремы Байеса до обобщённых линейных моделей и узнаете в лицо тех китов, на которых стоит весь современный искусственный интеллект.
👍46❤14🔥7 3
Поздравьте с подачей двух коротких статей на ACL... Если даст Бог-Машина, расскажу о них здесь через несколько дней когда приду в себя. Я правда не первый автор ни в одной
❤96👍21 14🦄11 4🔥3🎉3👾1
Forwarded from здесь были драконы
Буря утихла, а поэтому настало время рассказать, о чем же было упражнение, которое привлекло столько внимания на прошлой неделе. В нём предлагалось определить, кто является более надежным источником информации, полученной из личной беседы. По условиям в личном общении Василий в 8 из 10 случаев сообщает ложную информацию, а Андрей в 8 из 10 случаев сообщает истинную информацию. На этом важные для выбора вводные заканчиваются.
Всё остальное – отвлекающий маневр. Поскольку на момент написания этого поста 51% (294 из 572) голосов был отдан ненадежному Василию, то вынужден признать, что я, видимо, выбрал весомое сочетание смущающих факторов. Во-первых, Василию был выдан престижный ярлык профессора физики. Во-вторых, Андрею был выдан не самый престижный ярлык эзотерика. В-третьих, была выбрана познавательная ситуация, где оба агента сообщают информацию в личной беседе (и мы знаем, насколько они надежны в этом отношении по условиям), но это информация о физике, то есть она тематически связана с ярлыком, выданным Василию.
Подчеркну, что это даже не философский мысленный эксперимент в обычном смысле этих слов, поскольку здесь нет какого-то открытого вопроса. Ответ уже дан в условиях. Всё, что нужно – это идентифицировать важные входные данные и не позволить неважным отвлечь (и тем более увлечь) себя.
Если вдруг кто-то ещё не понял, как же так получается, то представьте, что всё это время с Василием и Андреем в личных беседах вы говорили только о физике. Следовательно, Василий сообщал вам верную информацию о физике в 2 из 10 случаев, а Андрей в 8 из 10. «Профессор физики» и «эзотерик широкой специализации» — это не взаимоисключающие ярлыки. Как говорится, может, и хотелось бы, но... Из того, что кого-то назвали «эзотериком», не следует, что он точно не разбирается в физике, черпает знания о ней из мистических источников и в целом плох в познании. Тут важно обуздать аффективную эвристику, чтобы из негативного отношения к определенной практике не вывести суждения о том, что ей занимаются только «какие-то не такие».
Если и делать какие-то выводы, то можно заметить, что неважной информации придается различное значение в зависимости от её конкретного содержания. Когда выбор был не между физиком и эзотериком, а между более крутым и менее крутым физиком, то только 35% проголосовавших посчитали надежным источник, который ненадежен, но более престижен.
В случае же, когда была дана возможность отдать свой голос источнику с неизвестной надежностью, 54% проголосовавших сделали это. Возможно, тут происходит принятие желаемого за действительное, если учесть, что можно было выбрать источник, который и так в 80% случаев сообщал верную информацию. Справедливости ради, в этой формулировке надежный источник чаще предпочитали ненадежному, чем в прошлых формулировках. Вероятно, здесь не было особого давления от престижа ярлыков. Если «профессор физики» — это для многих однозначное «ура», а «эзотерик» — «фу», то «фуд-блогер», «турист» и «таксист» — это «🤷».
Когда же было предложено выбрать между одинаково надежными источниками с практически идентичным описанием, то 59% проголосовавших оценили их как одинаково заслуживающие доверия. 27% решили никому не доверять, что, возможно, связано с тем, что наличие неважной информации уменьшает уверенность людей в значимости важной. Ну и надежного мужчину посчитали более заслуживающим доверия 10%, а женщину только 4%.
Как кажется, такие результаты можно было предсказать, ориентируясь на имеющиеся наработки когнитивной психологии, поведенческой экономики, экспериментальной философии и т.д. В общем, повеселились и ладно.
Всё остальное – отвлекающий маневр. Поскольку на момент написания этого поста 51% (294 из 572) голосов был отдан ненадежному Василию, то вынужден признать, что я, видимо, выбрал весомое сочетание смущающих факторов. Во-первых, Василию был выдан престижный ярлык профессора физики. Во-вторых, Андрею был выдан не самый престижный ярлык эзотерика. В-третьих, была выбрана познавательная ситуация, где оба агента сообщают информацию в личной беседе (и мы знаем, насколько они надежны в этом отношении по условиям), но это информация о физике, то есть она тематически связана с ярлыком, выданным Василию.
Подчеркну, что это даже не философский мысленный эксперимент в обычном смысле этих слов, поскольку здесь нет какого-то открытого вопроса. Ответ уже дан в условиях. Всё, что нужно – это идентифицировать важные входные данные и не позволить неважным отвлечь (и тем более увлечь) себя.
Если и делать какие-то выводы, то можно заметить, что неважной информации придается различное значение в зависимости от её конкретного содержания. Когда выбор был не между физиком и эзотериком, а между более крутым и менее крутым физиком, то только 35% проголосовавших посчитали надежным источник, который ненадежен, но более престижен.
В случае же, когда была дана возможность отдать свой голос источнику с неизвестной надежностью, 54% проголосовавших сделали это. Возможно, тут происходит принятие желаемого за действительное, если учесть, что можно было выбрать источник, который и так в 80% случаев сообщал верную информацию. Справедливости ради, в этой формулировке надежный источник чаще предпочитали ненадежному, чем в прошлых формулировках. Вероятно, здесь не было особого давления от престижа ярлыков. Если «профессор физики» — это для многих однозначное «ура», а «эзотерик» — «фу», то «фуд-блогер», «турист» и «таксист» — это «🤷».
Когда же было предложено выбрать между одинаково надежными источниками с практически идентичным описанием, то 59% проголосовавших оценили их как одинаково заслуживающие доверия. 27% решили никому не доверять, что, возможно, связано с тем, что наличие неважной информации уменьшает уверенность людей в значимости важной. Ну и надежного мужчину посчитали более заслуживающим доверия 10%, а женщину только 4%.
Как кажется, такие результаты можно было предсказать, ориентируясь на имеющиеся наработки когнитивной психологии, поведенческой экономики, экспериментальной философии и т.д. В общем, повеселились и ладно.
👍28 16❤10👎8 6❤🔥2🤔2
⬆️ подписчики дуреют от этой прикормки 😈
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from здесь были драконы
Я не хотел этого делать, но обстоятельства вынуждают. Тридцатое тысячелетие. Вы – один из потерянных примархов. Так сложилось, что вас воспитывал наставник, который никогда и ни при каких обстоятельствах вам не сообщал ложной информации.
Наставник рассказывал, что один из врагов человечества – это бог хаоса Тзинч, которому известны буквально все истины о физическом устройстве мира, но в 8 из 10 случаев он врёт своим адептам, сообщая ложную информацию. Также наставник рассказал об Императоре Человечества, который не имеет степени профессора физики, да и совсем другим в жизни занимался, но если о чем-то и говорит своим последователям, то в 8 из 10 случаев сообщает верную информацию. Когда вы спросили, почему же в 2 из 10 случаев Император ошибается, то наставник порекомендовал забыть об этом вопросе и впредь никогда больше не поднимать его.
Однажды с помощью астральной телепатии с вами связывается Тзинч, который сообщает, что физический мир устроен так, что p. Следом телепатическое сообщение вам отправляет сам Император, сообщая, что физический мир устроен так, что ¬p. Кого в такой ситуации считать более надежным источником информации о том, как устроен физический мир?
Наставник рассказывал, что один из врагов человечества – это бог хаоса Тзинч, которому известны буквально все истины о физическом устройстве мира, но в 8 из 10 случаев он врёт своим адептам, сообщая ложную информацию. Также наставник рассказал об Императоре Человечества, который не имеет степени профессора физики, да и совсем другим в жизни занимался, но если о чем-то и говорит своим последователям, то в 8 из 10 случаев сообщает верную информацию. Когда вы спросили, почему же в 2 из 10 случаев Император ошибается, то наставник порекомендовал забыть об этом вопросе и впредь никогда больше не поднимать его.
Однажды с помощью астральной телепатии с вами связывается Тзинч, который сообщает, что физический мир устроен так, что p. Следом телепатическое сообщение вам отправляет сам Император, сообщая, что физический мир устроен так, что ¬p. Кого в такой ситуации считать более надежным источником информации о том, как устроен физический мир?
Forwarded from здесь были драконы
Кто для вас является более надёжным источником информации в описанной познавательной ситуации?
Anonymous Poll
22%
Тзинч
78%
Император Человечества
Forwarded from Math cool. Олимпиадная математика
☀️Летние школы. Стипендия на обучение для детей из регионов
Мы считаем очень важным давать возможность талантливым детям из регионов получить хорошее мат.образование вне зависимости от их материальных возможностей. Основатели школы и многие из педагогов выросли в регионах и по себе знают этот тернистый путь. Поэтому благодаря спонсорской помощи мы смогли сделать 15 мест на летних выездах со скидкой 100%
Необходимые условия участия:
1️⃣ вы проживаете и учитесь в школе не в Москве, Мособласти, Санкт-Петербурге;
2️⃣ вы хорошо себя проявили в этом учебном году (24/25) в математике, то есть:
• вы набрали на региональном этапе олимпиады Эйлера от 38 баллов;
• вы набрали на региональном этапе ВсОШ от 44 баллов;
• прошли отбор в Сириус на математическую смену;
• стали призером или победителем олимпиады ЮМШ или других значимых для вашего региона олимпиад;
• вы хорошо себя проявили лично в прошлых мероприятиях нашей школы (олимпиада, кружки, выезды)
Оговоренные выше критерии подходят в первую для учеников 7-10 классов, но мы будем рады принять и учеников помладше. В случае получения слишком большого количества заявок организаторы проведут устное собеседование с претендентами в спорных ситуациях
✅Регистрация на льготное место
🌐Сайт смен
📅Регистрация для получения бесплатного места на участие закрывается 1 марта. Итоговые результаты будут подведены в течение 2-3 недель (в зависимости от наличия устных собеседований)
Мы считаем очень важным давать возможность талантливым детям из регионов получить хорошее мат.образование вне зависимости от их материальных возможностей. Основатели школы и многие из педагогов выросли в регионах и по себе знают этот тернистый путь. Поэтому благодаря спонсорской помощи мы смогли сделать 15 мест на летних выездах со скидкой 100%
Необходимые условия участия:
1️⃣ вы проживаете и учитесь в школе не в Москве, Мособласти, Санкт-Петербурге;
2️⃣ вы хорошо себя проявили в этом учебном году (24/25) в математике, то есть:
• вы набрали на региональном этапе олимпиады Эйлера от 38 баллов;
• вы набрали на региональном этапе ВсОШ от 44 баллов;
• прошли отбор в Сириус на математическую смену;
• стали призером или победителем олимпиады ЮМШ или других значимых для вашего региона олимпиад;
• вы хорошо себя проявили лично в прошлых мероприятиях нашей школы (олимпиада, кружки, выезды)
Оговоренные выше критерии подходят в первую для учеников 7-10 классов, но мы будем рады принять и учеников помладше. В случае получения слишком большого количества заявок организаторы проведут устное собеседование с претендентами в спорных ситуациях
✅Регистрация на льготное место
🌐Сайт смен
📅Регистрация для получения бесплатного места на участие закрывается 1 марта. Итоговые результаты будут подведены в течение 2-3 недель (в зависимости от наличия устных собеседований)
❤33🔥18 16💩11👍8❤🔥2
Tl;Dr: early-GROK-3 смог правильно решить задачку по комбинаторной теории групп, на которой другие LLM-ки делали одну и ту же надоедливую ошибку. Дальше будут подробности ( 🤓 ).
Жаловалась я вчера коллегам, что ни одна из известных мне LLM-ок не понимает до конца, что такое математическое доказательство и при попытках решать те задачи на доказательство, которые НЕ являются школьными и НЕ входят в стандартный курс вышмата, все они любят уходить в словоблудие и запутываться. В частности, ни GPT-4o обычный, ни GPT-4o с обоснуем, ни DeepSeek-v3, ни DeepSeek-R1, ни LLaMA-70B не смогли правильно решить одну из самых простых задачек к спецкурсу по комбинаторной теории групп ( https://www.tgoop.com/forodirchNEWS/2860 ). Задачка (в переводе на английский - с ним модели в среднем работают лучше) звучит так:
И все они вроде бы вначале генерировали правильные рассуждения (кроме LLaMA-70B: та сразу уходила куда-то не в ту степь), но потом делали одну и ту же ошибку: заявляли, что якобы централизатор элемента w - это <w> (т.е. циклическая группа, порожденная элементом w) либо <w^k> (т.е. порожденная степенью элемента w). В ответ на это я предлагала контрпример: допустим, w == a^3, где a - один из генераторов свободной группы. Тогда a^2 тоже коммутирует с w. Но a^2 не входит в <w>. Как так?
Увидев контрпример, LLM-ки либо начинали думать, что этот контрпример доказывает, что централизатор - не циклическая группа (что неверно; на самом деле, в нем централизатор - это просто <a>), либо просто уходили в словоблудие, в котором сами же и запутывались. 🥴
Услышав о данной проблеме, один коллега посоветовал испытать Grok 3 на https://lmarena.ai/ . Я, честно говоря, ожидала, что он будет ещё тупее, и не особо надеялась на результат. Однако, Grok 3, к моему сильнейшему удивлению, решил задачу правильно! При этом, судя по отсутствию задержки в ответе, он не использовал предварительный thinking, как R1.
После этого я попробовала протестировать его и на более сложной задаче из того же спецкурса:
Эта задача отличается тем, что на нее очень сложно найти решение в интернете. Мне вот, например, удалось его найти только в оригинальной статье с отвратительным качеством скана, которую пришлось качать через sci-hub. С другой стороны, на архиве довольно легко найти решение для одного частного случая и решить общий случай по аналогии (что я сама и сделала, так как разбирать запутанное оригинальное доказательство было выше моих сил).
К моему удивлению, на этой задаче модели тоже удалось сгенерировать верное доказательство (правда, не сразу, а с третьего раза: в первых двух я забывала включить в промпт определение группы BS(m, n), и модель писала определение неправильно, от чего запутывалась). Суть доказательства заключается в том, чтобы построить правильный гомоморфизм из группы в её собственную фактогруппу, а затем показать, что он, с одной стороны, сюръективен, а с другой - имеет ненулевое ядро. Таким образом, показывается, что группа BS изоморфна своей собственной фактогруппе, что и является определением не-Хопфовости. И в самом деле, гроку удалось найти нужный гомоморфизм!
Интересно, что в двух других генерациях Грок предложил другие гомоморфизмы, но проверять их правильность мне уже не хватило сил. Вообще, проверка длинных полотен многословных нейросетевых доказательств требует большой внимательности, сосредоточенности и времени - то есть, всего того, чего у меня на данный момент нет.🤬
#генерация #математика
Жаловалась я вчера коллегам, что ни одна из известных мне LLM-ок не понимает до конца, что такое математическое доказательство и при попытках решать те задачи на доказательство, которые НЕ являются школьными и НЕ входят в стандартный курс вышмата, все они любят уходить в словоблудие и запутываться. В частности, ни GPT-4o обычный, ни GPT-4o с обоснуем, ни DeepSeek-v3, ни DeepSeek-R1, ни LLaMA-70B не смогли правильно решить одну из самых простых задачек к спецкурсу по комбинаторной теории групп ( https://www.tgoop.com/forodirchNEWS/2860 ). Задачка (в переводе на английский - с ним модели в среднем работают лучше) звучит так:
Proof that centralizer of an arbitrary element (word) in a free group is a cyclic group.
И все они вроде бы вначале генерировали правильные рассуждения (кроме LLaMA-70B: та сразу уходила куда-то не в ту степь), но потом делали одну и ту же ошибку: заявляли, что якобы централизатор элемента w - это <w> (т.е. циклическая группа, порожденная элементом w) либо <w^k> (т.е. порожденная степенью элемента w). В ответ на это я предлагала контрпример: допустим, w == a^3, где a - один из генераторов свободной группы. Тогда a^2 тоже коммутирует с w. Но a^2 не входит в <w>. Как так?
Увидев контрпример, LLM-ки либо начинали думать, что этот контрпример доказывает, что централизатор - не циклическая группа (что неверно; на самом деле, в нем централизатор - это просто <a>), либо просто уходили в словоблудие, в котором сами же и запутывались. 🥴
Услышав о данной проблеме, один коллега посоветовал испытать Grok 3 на https://lmarena.ai/ . Я, честно говоря, ожидала, что он будет ещё тупее, и не особо надеялась на результат. Однако, Grok 3, к моему сильнейшему удивлению, решил задачу правильно! При этом, судя по отсутствию задержки в ответе, он не использовал предварительный thinking, как R1.
После этого я попробовала протестировать его и на более сложной задаче из того же спецкурса:
Proof that Baumslag–Solitar group $BS(m, n) = <a, t | t^{-1}a^mt = a^n>$ is not Hopfian when m and n are mutually prime.
Эта задача отличается тем, что на нее очень сложно найти решение в интернете. Мне вот, например, удалось его найти только в оригинальной статье с отвратительным качеством скана, которую пришлось качать через sci-hub. С другой стороны, на архиве довольно легко найти решение для одного частного случая и решить общий случай по аналогии (что я сама и сделала, так как разбирать запутанное оригинальное доказательство было выше моих сил).
К моему удивлению, на этой задаче модели тоже удалось сгенерировать верное доказательство (правда, не сразу, а с третьего раза: в первых двух я забывала включить в промпт определение группы BS(m, n), и модель писала определение неправильно, от чего запутывалась). Суть доказательства заключается в том, чтобы построить правильный гомоморфизм из группы в её собственную фактогруппу, а затем показать, что он, с одной стороны, сюръективен, а с другой - имеет ненулевое ядро. Таким образом, показывается, что группа BS изоморфна своей собственной фактогруппе, что и является определением не-Хопфовости. И в самом деле, гроку удалось найти нужный гомоморфизм!
Интересно, что в двух других генерациях Грок предложил другие гомоморфизмы, но проверять их правильность мне уже не хватило сил. Вообще, проверка длинных полотен многословных нейросетевых доказательств требует большой внимательности, сосредоточенности и времени - то есть, всего того, чего у меня на данный момент нет.
#генерация #математика
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Кофейный теоретик
Конспект с\к по комбинаторной теории групп готов. В силу ряда причин я читал в этом семестре лекции с презентациями и решил свести всё вместе. Потребовало это сведение несколько больших усилий, чем я предполагал: взыграл не пойми откуда взявшийся перфекционизм.…
🤯34 28👍16❤15 8🔥6👎1
Предложила я Гроку и такую задачу из спецкурса:
Здесь я ожидала, что трудностей у него не будет, и правильный ответ будет найден с первого раза - ведь эта задача обсуждается в большом количестве учебников, в том числе и хорошо распознанных, которые наверняка попали в его обучающую выборку... но нет! На удивление, в первой генерации модель сделала множество странных ошибок. Впрочем, через пару попыток Грок все-таки догадался до правильного решения.
—
К сожалению, в диалоге на lmarena мне было очень неудобно просматривать latex-код, сгенерированный моделью, поэтому мне приходилось копировать ее генерации в overleaf и удалять из них markdown-разметку (т.к. overleaf ее не воспринимает). Собственно, pdf-файл с этими генерациями (с удаленным markdown) я и выложу в следующем сообщении. В этот же файл я добавила формулировки задач на русском, свои собственные их решения (также на русском) и пример неправильного решения первой задачи от gpt-4o. Также я подсветила зеленым ту часть генерации, в которой Грок нашел правильный гомоморфизм для второй задачи, желтым - те части генерации, в которых он сгенерировал другие гомоморфизмы (пока что поленилась проверять, правильные или нет), красным - самые странные ошибки.
В целом, модель вызвала мое уважение тем, что действительно показала себя лучше других в данной области математики😌 (хотя не обошлось и без 🥴, конечно). Ну что, зачтем ей спецкурс? 🤡
P.S. Интересное наблюдение: в целом мне показалось, что качество генерации Grok-а упало со вчерашнего дня, что говорит либо о том, что мне на первых генерациях сильно повезло, либо ту модель на https://lmarena.ai/ , которая мне отвечала вчера, сегодня заменили на дистилляцию или другую более слабую альтернативу. Всей правды мы не знаем?
#генерация #математика
Calculate fundamental group of the Klein bottle.
Здесь я ожидала, что трудностей у него не будет, и правильный ответ будет найден с первого раза - ведь эта задача обсуждается в большом количестве учебников, в том числе и хорошо распознанных, которые наверняка попали в его обучающую выборку... но нет! На удивление, в первой генерации модель сделала множество странных ошибок. Впрочем, через пару попыток Грок все-таки догадался до правильного решения.
—
К сожалению, в диалоге на lmarena мне было очень неудобно просматривать latex-код, сгенерированный моделью, поэтому мне приходилось копировать ее генерации в overleaf и удалять из них markdown-разметку (т.к. overleaf ее не воспринимает). Собственно, pdf-файл с этими генерациями (с удаленным markdown) я и выложу в следующем сообщении. В этот же файл я добавила формулировки задач на русском, свои собственные их решения (также на русском) и пример неправильного решения первой задачи от gpt-4o. Также я подсветила зеленым ту часть генерации, в которой Грок нашел правильный гомоморфизм для второй задачи, желтым - те части генерации, в которых он сгенерировал другие гомоморфизмы (пока что поленилась проверять, правильные или нет), красным - самые странные ошибки.
В целом, модель вызвала мое уважение тем, что действительно показала себя лучше других в данной области математики
P.S. Интересное наблюдение: в целом мне показалось, что качество генерации Grok-а упало со вчерашнего дня, что говорит либо о том, что мне на первых генерациях сильно повезло, либо ту модель на https://lmarena.ai/ , которая мне отвечала вчера, сегодня заменили на дистилляцию или другую более слабую альтернативу. Всей правды мы не знаем?
#генерация #математика
Please open Telegram to view this post
VIEW IN TELEGRAM
👍19❤15🔥4🫡2👎1
Рис. 1 - сегодня подруга подарила мне гигиеническую помаду "Барби", что привело к быстрой и необратимой бимбофикации 💅💋
Теперь все посты будут выходить с розовыми смайликами, а сам канал превращается в бьюти-блог 💆♀️ #о_себе
Теперь все посты будут выходить с розовыми смайликами, а сам канал превращается в бьюти-блог 💆♀️ #о_себе
💅328❤74 46🥰16🤡15😨11❤🔥9🤗8 8 7👍5