Лицо-маска
Ранее уже упоминала масочные генерации от Rai. Вот еще один мой любимчик - AI-художник Doopiidoo.
Куча стилистических комбинаций, крайне реалистичные фактуры - и это все с помощью одного лишь Midjorney.
#artistoftheweek
Ранее уже упоминала масочные генерации от Rai. Вот еще один мой любимчик - AI-художник Doopiidoo.
Куча стилистических комбинаций, крайне реалистичные фактуры - и это все с помощью одного лишь Midjorney.
#artistoftheweek
This media is not supported in your browser
VIEW IN TELEGRAM
Вчера была на презентации студенческих проектов и заметила, что один из выступающих по ошибке вставил это явно «сделанное» видео в свою презентацию про Boston Dynamics
И это, в целом, не удивительно: к брендовым VFX-роликам, где над городом летают всякие кроссовки-сумки, многие уже давно привыкли. Каких-то очевидно вымышленных 3D-персонажей, совмещенных с реальными видео, легко распознать. К иногда подрисованным шоу дронов все тоже научились (я надеюсь!) относиться скептически.
Но когда тебе изо всех углов ежедневно показывают новые достижения роботов-гуманоидов с их кувырками во все стороны (все же видели робота-акробата Stuntronics от Disney Imagineering?), начинаешь понимать, как сильно сейчас важна насмотренность, чтобы отличать реальность от графики.
Я уже когда-то писала, где можно насматриваться на кейсы, связанные с CGI/VFХ (тут и тут) - снова повторюсь, что в нашу постправдивую эпоху это очень актуально для всех.
А если вдруг вы хотите детальнее разобраться, как создаются такие видео с 3D — смело пишите @alexkuchmadshf. Лешина студия как раз занимается разработкой подобного контента + у ребят есть школа, где они обучают создавать VFX-ролики, а также крутой канал Digital-шкаф про применение этих технологий в искусстве и моде (тоже очень рекомендую как минимум для насмотренности!).
А робота наверху я потом нашла - это работа цифрового художника Wayne Rayn.
#technologies
#art
И это, в целом, не удивительно: к брендовым VFX-роликам, где над городом летают всякие кроссовки-сумки, многие уже давно привыкли. Каких-то очевидно вымышленных 3D-персонажей, совмещенных с реальными видео, легко распознать. К иногда подрисованным шоу дронов все тоже научились (я надеюсь!) относиться скептически.
Но когда тебе изо всех углов ежедневно показывают новые достижения роботов-гуманоидов с их кувырками во все стороны (все же видели робота-акробата Stuntronics от Disney Imagineering?), начинаешь понимать, как сильно сейчас важна насмотренность, чтобы отличать реальность от графики.
Я уже когда-то писала, где можно насматриваться на кейсы, связанные с CGI/VFХ (тут и тут) - снова повторюсь, что в нашу постправдивую эпоху это очень актуально для всех.
А если вдруг вы хотите детальнее разобраться, как создаются такие видео с 3D — смело пишите @alexkuchmadshf. Лешина студия как раз занимается разработкой подобного контента + у ребят есть школа, где они обучают создавать VFX-ролики, а также крутой канал Digital-шкаф про применение этих технологий в искусстве и моде (тоже очень рекомендую как минимум для насмотренности!).
А робота наверху я потом нашла - это работа цифрового художника Wayne Rayn.
#technologies
#art
Media is too big
VIEW IN TELEGRAM
Ну что, соскучились по теме цифрового бессмертия?
Компания Sensay, работающая на стыке ИИ и блокчейна, запустила инновационную платформу, предназначенную для создания цифровых двойников человека.
Работает так: вы общаетесь с их ИИ, делитесь событиями из своей жизни, эмоциями, размышлениями и т.д. В результате получается эдакий личный биограф, который способен при необходимости что-то вам напомнить или сделать за вас (при этом все ваши личные данные надежно защищены, будучи зашифрованными благодаря блокчейну).
Позиционируют они свой продукт как потенциальное решение для людей, страдающих деменцией, но это, разумеется, не единственное возможное применение: разработчики смотрят в будущее и всерьез говорят о создании полноценных цифровых реплик, которых можно еще и монетизировать (компания представила токен SNSY, позволяющий пользователям участвовать в экономике платформы, сохраняя право собственности на своих двойников).
Sensay уже объявила о партнерстве с OpenAI, HeyGen, ElevenLabs, Fetch.Ai и многими другим крупными компаниями.
CEO компании Дэн Томсон написал 2 книги про цифровое бессмертие и искренне уверен, что они с коллегами сейчас «ткут ткань новой цифровой эры».
Мое мнение по поводу цифрового копирования пока остается скептическим, но если вы хотите эту тему обсудить подробнее, то можете пообщаться с цифровым двойником Дэна - он вам всё и расскажет!
#future
#technologies
Компания Sensay, работающая на стыке ИИ и блокчейна, запустила инновационную платформу, предназначенную для создания цифровых двойников человека.
Работает так: вы общаетесь с их ИИ, делитесь событиями из своей жизни, эмоциями, размышлениями и т.д. В результате получается эдакий личный биограф, который способен при необходимости что-то вам напомнить или сделать за вас (при этом все ваши личные данные надежно защищены, будучи зашифрованными благодаря блокчейну).
Позиционируют они свой продукт как потенциальное решение для людей, страдающих деменцией, но это, разумеется, не единственное возможное применение: разработчики смотрят в будущее и всерьез говорят о создании полноценных цифровых реплик, которых можно еще и монетизировать (компания представила токен SNSY, позволяющий пользователям участвовать в экономике платформы, сохраняя право собственности на своих двойников).
Sensay уже объявила о партнерстве с OpenAI, HeyGen, ElevenLabs, Fetch.Ai и многими другим крупными компаниями.
CEO компании Дэн Томсон написал 2 книги про цифровое бессмертие и искренне уверен, что они с коллегами сейчас «ткут ткань новой цифровой эры».
Мое мнение по поводу цифрового копирования пока остается скептическим, но если вы хотите эту тему обсудить подробнее, то можете пообщаться с цифровым двойником Дэна - он вам всё и расскажет!
#future
#technologies
Будете когда-нибудь создавать своего цифрового двойника (при условии, что все ваши личные данные будут надежно защищены)?
Anonymous Poll
32%
Да, но только как ИИ-помощника. В цифровое бессмертие не верю
28%
Да. Может не сейчас, но через несколько лет обязательно - за этим действительно будущее!
22%
Нет. Сразу вспоминаю «Черное зеркало» и не понимаю, зачем вообще нужен цифровой двойник.
21%
Нет. Все равно сомневаюсь в полной сохранности своих данных.
8%
Другое (поделитесь соображениями)
Судя по вчерашнему опросу, большинство ответивших все же готово создать своего цифрового двойника
Но помним, что с цифровым копированием личности и цифровой загрузкой сознания всегда будут возникать некоторые трудности:
▪️Проблема нумерического тождества: даже самая качественная копия не обеспечит лично ваше выживание и цифровое бессмертие.
▪️Проблема «блекнущих» квалиа: даже при последовательной замене вашего органического мозга на функционально-эквивалентный кремниевый субстрат остается логическая вероятность того, что при такой постепенной замене ваше сознание будет постепенно «блекнуть» (или вовсе внезапно исчезнет), хотя на поведенческом уровне ваши реакции могут никак не поменяться (подробнее об этой проблеме тут).
Тем не менее, можно предположить, что мы и наши личности уже являемся фундаментально-цифровыми (напоминаю, что вероятность того, что мы все находимся в симуляции, растет с каждым днем), а значит некоторые метафизические вопросы, связанные с возможностью нашей оцифровки, могут оказаться чуть проще.
Что посмотреть и почитать по этой теме:
🔹Фильм «Цифровое бессмертие» (2022) - потрясающий документальный фильм про инженера Александра Осиповича, чей дед завещал создать его цифровую копию и воплотить ее в роботе.
🔹Подкаст «Метафизика загрузки» - краткий ответ на вопрос почему далеко не все современные мыслители верят в возможность цифрового копирования личности.
🔹Книга «Virtually Human: The Promise - and the Peril - of Digital Immortality» (M. Rothblatt) - крайне любопытный текст про будущее киберсознания от специалиста по медицинской этике, введение к которому написал Рэй Курцвейл.
🔹Книга «Digital Souls: A Philosophy of Online Immortality» (P. Strokes) - провокационная работа, где исследуется целый ряд вопросов о природе смерти и личности, а также о моральном статусе наших «цифровых останков»
#philosophy
#рекомендасьон
Но помним, что с цифровым копированием личности и цифровой загрузкой сознания всегда будут возникать некоторые трудности:
▪️Проблема нумерического тождества: даже самая качественная копия не обеспечит лично ваше выживание и цифровое бессмертие.
▪️Проблема «блекнущих» квалиа: даже при последовательной замене вашего органического мозга на функционально-эквивалентный кремниевый субстрат остается логическая вероятность того, что при такой постепенной замене ваше сознание будет постепенно «блекнуть» (или вовсе внезапно исчезнет), хотя на поведенческом уровне ваши реакции могут никак не поменяться (подробнее об этой проблеме тут).
Тем не менее, можно предположить, что мы и наши личности уже являемся фундаментально-цифровыми (напоминаю, что вероятность того, что мы все находимся в симуляции, растет с каждым днем), а значит некоторые метафизические вопросы, связанные с возможностью нашей оцифровки, могут оказаться чуть проще.
Что посмотреть и почитать по этой теме:
🔹Фильм «Цифровое бессмертие» (2022) - потрясающий документальный фильм про инженера Александра Осиповича, чей дед завещал создать его цифровую копию и воплотить ее в роботе.
🔹Подкаст «Метафизика загрузки» - краткий ответ на вопрос почему далеко не все современные мыслители верят в возможность цифрового копирования личности.
🔹Книга «Virtually Human: The Promise - and the Peril - of Digital Immortality» (M. Rothblatt) - крайне любопытный текст про будущее киберсознания от специалиста по медицинской этике, введение к которому написал Рэй Курцвейл.
🔹Книга «Digital Souls: A Philosophy of Online Immortality» (P. Strokes) - провокационная работа, где исследуется целый ряд вопросов о природе смерти и личности, а также о моральном статусе наших «цифровых останков»
#philosophy
#рекомендасьон
В продолжение темы цифрового копирования (случайно получился лонгрид, извините)
Есть такой комедийный фильм «Множество» (1996), где главный герой клонирует себя, а затем клонирует клонов, и каждая последующая реплика оказывается значительно глупее предыдущей.
Именно на этот фильм как-то сослался один из авторов исследования, посвященного проблеме «коллапса модели».
Исследование вышло еще в июне: группа учёных из Кембриджского и Оксфордского университетов показала, что обучение LLM на контете, созданном ранее другими моделями, вызывает дегенеративный процесс, который с течением времени заставляет их забывать истинное базовое распределение вероятностей (т.н. «проклятие рекурсии»).
Поэтому неудивительно, что все уже давно всерьез обсуждают тему «генеративного мусора», постепенно заполоняющего Интернет.
А примерно неделю назад многие обратили внимание на статью нейробиолога Эрика Хоэла о мутации научного языка из-за появления огромного числа текстов, написанных в соавторстве с чатботами.
Мало того, что излюбленные эпитеты ChatGPT вроде “meticulous”, “intricate”, “commendable” и др. стали появляться в научных статьях в среднем в 10 раз чаще, так еще оказалось, что некоторые коллеги не удосуживаются «вычищать» из сгенерированных текстов фразы вроде «Certainly, here is…» или «As an AI language model…», сразу выдающие авторство чатботов.
Я уж молчу про сгенерированные картинки крыс из статьи, опубликованной относительно недавно в одном из самых цитируемых журналов по биологии развития. Да, это мемный пример, который многим уже натер глаза, но суть ясна: подобного научного мусора уже достаточно много для того, чтобы не только задуматься о проблеме, но и начать предпринимать какие-то действия (какие, если рецензированием статей теперь тоже иногда занимаются LLM?).
(А тут еще и Claude-3 натренировали писать самостоятельные научные исследования..)
С явно сгенерированными научными статьями я пока лично не сталкивалась, но как человек, регулярно проверяющий студенческие работы, уже вижу, как в написание многих из них частично или полностью вмешивается СhatGPT. Поверьте, ИИ-галлюцинации, разбавленные отборной академической водой – это то еще испытание на прочность🫠
Но я неисправима и все равно всячески поощряю любые попытки осознанного использования LLM. Предупрежден - вооружен.
#technologies
Есть такой комедийный фильм «Множество» (1996), где главный герой клонирует себя, а затем клонирует клонов, и каждая последующая реплика оказывается значительно глупее предыдущей.
Именно на этот фильм как-то сослался один из авторов исследования, посвященного проблеме «коллапса модели».
Исследование вышло еще в июне: группа учёных из Кембриджского и Оксфордского университетов показала, что обучение LLM на контете, созданном ранее другими моделями, вызывает дегенеративный процесс, который с течением времени заставляет их забывать истинное базовое распределение вероятностей (т.н. «проклятие рекурсии»).
Поэтому неудивительно, что все уже давно всерьез обсуждают тему «генеративного мусора», постепенно заполоняющего Интернет.
А примерно неделю назад многие обратили внимание на статью нейробиолога Эрика Хоэла о мутации научного языка из-за появления огромного числа текстов, написанных в соавторстве с чатботами.
Мало того, что излюбленные эпитеты ChatGPT вроде “meticulous”, “intricate”, “commendable” и др. стали появляться в научных статьях в среднем в 10 раз чаще, так еще оказалось, что некоторые коллеги не удосуживаются «вычищать» из сгенерированных текстов фразы вроде «Certainly, here is…» или «As an AI language model…», сразу выдающие авторство чатботов.
Я уж молчу про сгенерированные картинки крыс из статьи, опубликованной относительно недавно в одном из самых цитируемых журналов по биологии развития. Да, это мемный пример, который многим уже натер глаза, но суть ясна: подобного научного мусора уже достаточно много для того, чтобы не только задуматься о проблеме, но и начать предпринимать какие-то действия (какие, если рецензированием статей теперь тоже иногда занимаются LLM?).
(А тут еще и Claude-3 натренировали писать самостоятельные научные исследования..)
С явно сгенерированными научными статьями я пока лично не сталкивалась, но как человек, регулярно проверяющий студенческие работы, уже вижу, как в написание многих из них частично или полностью вмешивается СhatGPT. Поверьте, ИИ-галлюцинации, разбавленные отборной академической водой – это то еще испытание на прочность
Но я неисправима и все равно всячески поощряю любые попытки осознанного использования LLM. Предупрежден - вооружен.
#technologies
Please open Telegram to view this post
VIEW IN TELEGRAM
Еще немного про «ИИ-мусор»
Так уж сложилось, что мы живем в такое время, когда с одной стороны нам рассказывают потрясающие истории про то, как ChatGPT поставил семилетнему мальчику правильный диагноз, над которым до этого безуспешно бились 17 врачей, а с другой стороны - как парень из твиттера собрал бота для вычисления «легкодоступных» (долго подбирала нейтральное слово) девушек по их фотографии.
Раз ИИ уже пытаются использовать для изобретения лекарств, постановки предварительных диагнозов, прогнозирования событий и т.п., а ученые публикуют полноценные исследования о предсказании рака по фото с помощью глубокого обучения (спасибо посту Сергея Цыпцына за наводку), то представьте, сколько инфоцыганских ИИ-продуктов нам будут навязывать уже совсем скоро (уже навязывают, но будет больше).
Суть проблемы проста: такие психологические эффекты, как апофения, самоисполняющееся пророчество, эффект субъективного подтверждения и др. отлично поддерживаются верой в способность ИИ круто анализировать огромные датасеты, предсказывать наше индивидуальное будущее и успешно охотиться за всевозможными «черными лебедями».
Что делать? Держать в голове знаменитую цитату экономиста Рональда Коуза: «Если достаточно долго мучить данные, они признаются (в чём угодно)».
#trends
Так уж сложилось, что мы живем в такое время, когда с одной стороны нам рассказывают потрясающие истории про то, как ChatGPT поставил семилетнему мальчику правильный диагноз, над которым до этого безуспешно бились 17 врачей, а с другой стороны - как парень из твиттера собрал бота для вычисления «легкодоступных» (долго подбирала нейтральное слово) девушек по их фотографии.
Раз ИИ уже пытаются использовать для изобретения лекарств, постановки предварительных диагнозов, прогнозирования событий и т.п., а ученые публикуют полноценные исследования о предсказании рака по фото с помощью глубокого обучения (спасибо посту Сергея Цыпцына за наводку), то представьте, сколько инфоцыганских ИИ-продуктов нам будут навязывать уже совсем скоро (уже навязывают, но будет больше).
Суть проблемы проста: такие психологические эффекты, как апофения, самоисполняющееся пророчество, эффект субъективного подтверждения и др. отлично поддерживаются верой в способность ИИ круто анализировать огромные датасеты, предсказывать наше индивидуальное будущее и успешно охотиться за всевозможными «черными лебедями».
Что делать? Держать в голове знаменитую цитату экономиста Рональда Коуза: «Если достаточно долго мучить данные, они признаются (в чём угодно)».
#trends
Завтра «Философская среда» на радио Серебряный дождь. Мы с философом Антоном Кузнецовым специально встанем к 9 утра, чтобы пропесочить метаверсы обсудить проблему реального и виртуального.
Подключайтесь послушать✨
Подключайтесь послушать
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Антон Кузнецов | Философ
Завтра «Философская среда» на радио Серебряный дождь. В 9 утра будем говорить о реальном и виртуальном. Думаю, для всех, кто не высыпается, это актуальный вопрос. Разобраться поможет Александра Танюшина, которая знает все про дополненную реальность, метаверсы…
Media is too big
VIEW IN TELEGRAM
Случайно наткнулась на это видео 2011 года на канале CornellCCSL: два чатбота Cleverbot разговаривают друг с другом.
Не знаю, когда там у нас уже будет человекоподобный AGI, но, кажется, мы его обронили где-то 13 лет назад)
#technologies
#surreal
Не знаю, когда там у нас уже будет человекоподобный AGI, но, кажется, мы его обронили где-то 13 лет назад)
#technologies
#surreal
Немножко хардкорной науки: вчера вручили очередную премию Тьюринга («Нобелевскую премию» в области вычислительной техники, учрежденную ACM)
В свое время премию получили Марвин Минский, Джон МакКарти, Тим Бернерс-Ли, Ян Лекун (совместно с Бенжио и Хинтоном, разумеется) и многие другие известные исследователи.
В этом году ее вручили Ави Вигдерзону из Института перспективных исследований Принстона «за основополагающий вклад в теорию вычислений, включая изменение нашего понимания роли случайности в вычислениях».
Как и с Нобелевкой, я честно каждый раз пытаюсь разобраться, в чем именно открытие/вклад (это, конечно, стало проще делать со всевозможными SciSummary или ChatPDF, но мозги все равно кипят).
Если коротко: еще в 1980е Вигдерсон и его коллеги обнаружили, что, добавляя случайность в некоторые алгоритмы, можно упростить и ускорить их решение.
(эти результаты, в том числе, способствовали лучшему пониманию знаменитой «проблемы перебора», над которой уже долгое время бьются не только математики, но и философы).
Также одна из наиболее цитируемых работ Вигдерзона и его коллег посвящена доказательствам с нулевым разглашением: в ней подробно описываются способы проверки информации без раскрытия самой информации (фундаментальная вещь для криптографии и блокчейна).
Вигдерзон в 2021 году также получил премию Абеля (это одна из крутейших премий по математике) - тоже отчасти за шаг, сделанный в сторону решения «проблемы перебора» (суть вклада ученого хорошо изложена тут).
Кстати, в марте этого года Абелевскую премию тоже вручили за открытия в области теории вероятностей и случайных процессов.
Совпадение? (или просто в воздухе запахло квантовыми компьютерами?)
#technologies
#science
В свое время премию получили Марвин Минский, Джон МакКарти, Тим Бернерс-Ли, Ян Лекун (совместно с Бенжио и Хинтоном, разумеется) и многие другие известные исследователи.
В этом году ее вручили Ави Вигдерзону из Института перспективных исследований Принстона «за основополагающий вклад в теорию вычислений, включая изменение нашего понимания роли случайности в вычислениях».
Как и с Нобелевкой, я честно каждый раз пытаюсь разобраться, в чем именно открытие/вклад (это, конечно, стало проще делать со всевозможными SciSummary или ChatPDF, но мозги все равно кипят).
Если коротко: еще в 1980е Вигдерсон и его коллеги обнаружили, что, добавляя случайность в некоторые алгоритмы, можно упростить и ускорить их решение.
(эти результаты, в том числе, способствовали лучшему пониманию знаменитой «проблемы перебора», над которой уже долгое время бьются не только математики, но и философы).
Также одна из наиболее цитируемых работ Вигдерзона и его коллег посвящена доказательствам с нулевым разглашением: в ней подробно описываются способы проверки информации без раскрытия самой информации (фундаментальная вещь для криптографии и блокчейна).
Вигдерзон в 2021 году также получил премию Абеля (это одна из крутейших премий по математике) - тоже отчасти за шаг, сделанный в сторону решения «проблемы перебора» (суть вклада ученого хорошо изложена тут).
Кстати, в марте этого года Абелевскую премию тоже вручили за открытия в области теории вероятностей и случайных процессов.
Совпадение? (или просто в воздухе запахло квантовыми компьютерами?)
#technologies
#science
В честь дня космонавтики: топ-5 моих любимых книг про космос и Вселенную (постаралась для разнообразия обойтись без Хокинга, Тайсона, Пенроуза и цифровой физики)
▪️«Конец всего (с точки зрения астрофизики)» (К. Мак) - крутое исследование проблем «начала» и «конца» Вселенной: 5 возможных апокалипсисов и то, что будет после них.
▪️«Путешественники в космос: как люди будут заселять Марс и то, что за его пределами» (К. Ванжек) - пока Маск собирает добровольцев для колонизации Марса, ученый обсуждает практические аспекты переезда с нашей планеты и «лайфхаки терраформинга».
▪️«Путеводитель зоолога по галактике» (Каршенбаум А.) - очень любопытная книга про то, как на самом деле могли бы выглядеть инопланетные живые существа (и их «разум»), учитывая наши современные знания о биологии и зоологии.
▪️«Введение в космологию» (Д. Хутерер) - это база. Если вы устали выбирать из миллионов нонфикшн книг про космос и просто хотите почитать хорошее учебное пособие, то эта книга для вас.
▪️«Как я убил Плутон и почему это было неизбежно» (М. Браун) - одна из немногих автобиографических книг, которая мне понравилась: будни астрофизика, из-за которого Плутон теперь просто «карликовая планета».
И на десерт:
🔹Подкаст про философию русского космизма
🔹Неземной подкаст астронома Владимира Сурдина
🔹Подкаст про НЛО в популярной культуре с философом Александром Ветушинским
Наверху -Дженсен Хуанг на презентации Nvidia работа из художественного проекта “Life forms of Tardi”,
демонстрирующего возможные формы внеземной жизни с помощью ИИ.
#рекомендасьон
#books
▪️«Конец всего (с точки зрения астрофизики)» (К. Мак) - крутое исследование проблем «начала» и «конца» Вселенной: 5 возможных апокалипсисов и то, что будет после них.
▪️«Путешественники в космос: как люди будут заселять Марс и то, что за его пределами» (К. Ванжек) - пока Маск собирает добровольцев для колонизации Марса, ученый обсуждает практические аспекты переезда с нашей планеты и «лайфхаки терраформинга».
▪️«Путеводитель зоолога по галактике» (Каршенбаум А.) - очень любопытная книга про то, как на самом деле могли бы выглядеть инопланетные живые существа (и их «разум»), учитывая наши современные знания о биологии и зоологии.
▪️«Введение в космологию» (Д. Хутерер) - это база. Если вы устали выбирать из миллионов нонфикшн книг про космос и просто хотите почитать хорошее учебное пособие, то эта книга для вас.
▪️«Как я убил Плутон и почему это было неизбежно» (М. Браун) - одна из немногих автобиографических книг, которая мне понравилась: будни астрофизика, из-за которого Плутон теперь просто «карликовая планета».
И на десерт:
🔹Подкаст про философию русского космизма
🔹Неземной подкаст астронома Владимира Сурдина
🔹Подкаст про НЛО в популярной культуре с философом Александром Ветушинским
Наверху -
демонстрирующего возможные формы внеземной жизни с помощью ИИ.
#рекомендасьон
#books
Вчера стартовала междисциплинарная конференция «Сигнальные системы», посвященная осмыслению проблем мультимодального восприятия
Проходит она с 12 по 23 апреля на базе галереи «Краснохолмская» в партнерстве с Третьяковской галереей и Технопарком «Сколково».
Среди спикеров: профессор Александр Каплан (зав. лаборатории нейрофизиологии МГУ), Андрей Демчинский (“Мозг/VR”), композитор Олег Макаров, философ Антон Кузнецов, художник Алексей Шульгин и многие другие.
Программа тут, регистрация на все события абсолютно бесплатная, так что очень рекомендую заглянуть всем, кто сейчас в Москве.
Я лично точно пойду на круглый стол, посвященный естественной и искусственной синтестезии (тема будоражащая) и на artist-talk с Надей Хухи, выпускницей ArtTECH.
Кстати, в магистратуру ArtTECH, обучающую технологическому искусству в МИСИС, до 28 апреля проходит набор на поступление по творческому конкурсу (подробности тут). В рамках программы студенты учатся конструировать собственные виртуальные среды, работать с нейросетями, роботами, интерактивным био-артом и др.
Работы некоторых студентов и выпускников ArtTECH представлены на выставке «Хаптика» в Краснохолмской. На нее тоже рекомендую заглянуть всем интересующимся современным технологическим искусством и сайнс-артом.
#events
#art
Проходит она с 12 по 23 апреля на базе галереи «Краснохолмская» в партнерстве с Третьяковской галереей и Технопарком «Сколково».
Среди спикеров: профессор Александр Каплан (зав. лаборатории нейрофизиологии МГУ), Андрей Демчинский (“Мозг/VR”), композитор Олег Макаров, философ Антон Кузнецов, художник Алексей Шульгин и многие другие.
Программа тут, регистрация на все события абсолютно бесплатная, так что очень рекомендую заглянуть всем, кто сейчас в Москве.
Я лично точно пойду на круглый стол, посвященный естественной и искусственной синтестезии (тема будоражащая) и на artist-talk с Надей Хухи, выпускницей ArtTECH.
Кстати, в магистратуру ArtTECH, обучающую технологическому искусству в МИСИС, до 28 апреля проходит набор на поступление по творческому конкурсу (подробности тут). В рамках программы студенты учатся конструировать собственные виртуальные среды, работать с нейросетями, роботами, интерактивным био-артом и др.
Работы некоторых студентов и выпускников ArtTECH представлены на выставке «Хаптика» в Краснохолмской. На нее тоже рекомендую заглянуть всем интересующимся современным технологическим искусством и сайнс-артом.
#events
#art
В эту субботу, 20 апреля в 17.00 в Музее Криптографии состоится дискуссия «Доверие 2.0: критическое мышление и цифровая грамотность в эпоху обманов»
Поговорим про то, как жить в времена распространяющихся LLM-спекуляций, а также про безопасность личных данных, современную криптографию и, конечно, про доверие и искренность.
В дискуссии примут участие Оксана Мороз, Полина Колозариди, Мария Кобринец, Егор Ефремов и я.
Мероприятие рекомендую посетить, как минимум, по двум причинам:
а) Тема крайне злободневная, и здорово, что формат живой дискуссии позволяет каждому желающему поучаствовать в обсуждении и поделиться своими мыслями.
б) Это лишний повод заглянуть в потрясающий Музей Криптографии (я неофициальный амбассадор этого места: постоянная экспозиция музея просто замечательная - приходите, не пожалеете!)
Участие в дискуссии бесплатное, регистрация по ссылке здесь.
#events
Поговорим про то, как жить в времена распространяющихся LLM-спекуляций, а также про безопасность личных данных, современную криптографию и, конечно, про доверие и искренность.
В дискуссии примут участие Оксана Мороз, Полина Колозариди, Мария Кобринец, Егор Ефремов и я.
Мероприятие рекомендую посетить, как минимум, по двум причинам:
а) Тема крайне злободневная, и здорово, что формат живой дискуссии позволяет каждому желающему поучаствовать в обсуждении и поделиться своими мыслями.
б) Это лишний повод заглянуть в потрясающий Музей Криптографии (я неофициальный амбассадор этого места: постоянная экспозиция музея просто замечательная - приходите, не пожалеете!)
Участие в дискуссии бесплатное, регистрация по ссылке здесь.
#events
Еще про ИИ и когнитивные искажения
Всю ночьсмотрела интервью Дурова перечитывала статьи про использование ИИ в науке, готовясь к упомянутой выше дискуссии и к докладам на двух конференциях.
В частности, обратилась к статье «Artificial intelligence and illusions of understanding in scientific research», вышедшей в марте в журнале Nature.
Авторы статьи, как водится, отмечают, что распространение ИИ-инструментов в науке рано или поздно приведет к тому, что мы будем производить больше знания (в том числе и «мусорного»), но при этом меньше понимать его источники и содержание.
Ученые делят применяемые сегодня исследовательские ИИ-инструменты на генеративные и предиктивные и на основе этого выводят 4 условных типа ИИ в современной науке:
▪️Оракул (генерация научных гипотез и study design)
▪️Суррогат (моделирование сложных системных процессов и сбор данных)
▪️Квант (анализ данных для исследования)
▪️Арбитр (рецензирование полученных результатов исследования)
Их совместное применение увеличивает некоторые эпистемические риски, связанные с подверженностью ученых «иллюзиям понимания» (в т.ч. иллюзиям объяснительной глубины, широты и объективности).
Таким образом, самый актуальный вопрос сегодняшнего дня не «Что даст ИИ науке?» а «Как у нас формируются когнитивные иллюзии нового типа, порождаемые использованием ИИ?».
Старые-добрые ловушки вроде «эффекта ореола», «эффекта фрейминга» и, конечно, «эффекта Элизы» уже давно изучены, а вот новые - пока не очень.
Пока новые исследования по этой теме пишутся, вот тут можно посмотреть легендарный файл с 176 когнитивными искажениями, с которыми мы сталкиваемся ежедневно. Скорее всего, применение ИИ просто усугубит многие из них.
#papers
Всю ночь
В частности, обратилась к статье «Artificial intelligence and illusions of understanding in scientific research», вышедшей в марте в журнале Nature.
Авторы статьи, как водится, отмечают, что распространение ИИ-инструментов в науке рано или поздно приведет к тому, что мы будем производить больше знания (в том числе и «мусорного»), но при этом меньше понимать его источники и содержание.
Ученые делят применяемые сегодня исследовательские ИИ-инструменты на генеративные и предиктивные и на основе этого выводят 4 условных типа ИИ в современной науке:
▪️Оракул (генерация научных гипотез и study design)
▪️Суррогат (моделирование сложных системных процессов и сбор данных)
▪️Квант (анализ данных для исследования)
▪️Арбитр (рецензирование полученных результатов исследования)
Их совместное применение увеличивает некоторые эпистемические риски, связанные с подверженностью ученых «иллюзиям понимания» (в т.ч. иллюзиям объяснительной глубины, широты и объективности).
Таким образом, самый актуальный вопрос сегодняшнего дня не «Что даст ИИ науке?» а «Как у нас формируются когнитивные иллюзии нового типа, порождаемые использованием ИИ?».
Старые-добрые ловушки вроде «эффекта ореола», «эффекта фрейминга» и, конечно, «эффекта Элизы» уже давно изучены, а вот новые - пока не очень.
Пока новые исследования по этой теме пишутся, вот тут можно посмотреть легендарный файл с 176 когнитивными искажениями, с которыми мы сталкиваемся ежедневно. Скорее всего, применение ИИ просто усугубит многие из них.
#papers
Завтра в 10 утра снова буду болтать на радио Серебряный дождь, на этот раз в рамках рубрики «Цифровой океан».
Подключайтесь, отсыплю вам щепотку цифровой философии✨
Upd: запись эфира можно посмотреть тут.
Подключайтесь, отсыплю вам щепотку цифровой философии
Upd: запись эфира можно посмотреть тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
ЦИФРОВОЙ ОКЕАН — новости про технологии | ИИ | ChatGPT
Каждую пятницу — постоянная рубрика «Цифрового океана» на волне радио «Серебряный дождь»!
Встречаемся 19 апреля, в 10:00, на канале «Серебряного дождя» и на сайте silver.ru/live_air
В гостях у рубрики «Цифровой океан» и ее ведущего Виктора Набутова — Александра…
Встречаемся 19 апреля, в 10:00, на канале «Серебряного дождя» и на сайте silver.ru/live_air
В гостях у рубрики «Цифровой океан» и ее ведущего Виктора Набутова — Александра…
Пока я выполняю свой академический долг и скачу с маховиком времени с одной конференции на другую, делюсь записью отличного стрима на Рабкоре про LLM и науку.
Юрий Кашницкий и Кали Новская обсудили работу крупнейших научных издательств, идею акселерации науки с помощью ИИ, проблему современной наукометрии (в том числе принцип «publish or death», «карусель цитирований» и прочие наши прелести), и, конечно, вопрос о возможности обучения LLM-моделей на синтетических научных данных (немного писала про это тут).
Отдельные респекты ребятам за:
▪️Упоминание archive.org и четкое указание на тот факт, что там много препринтов статей, не прошедших процедуру рецензирования. Студентам я постоянно проговариваю, что это ресурс, где часто попадается непроверенный научный мусор, и, следовательно, ко многим хранящимся там текстам надо относиться с осторожностью.
▪️Упоминание ConnectedPapers (крутой сервис для поиска тематически-схожих научных статей по визуальным графам) и других классных научных инструментов. (Полная подборка от ребят тут + еще одна подборка от меня).
В общем, рекомендую посмотреть стрим целиком - весьма интересно и актуально (особенно для регулярно публикующихся людей).
#рекомендасьон
Юрий Кашницкий и Кали Новская обсудили работу крупнейших научных издательств, идею акселерации науки с помощью ИИ, проблему современной наукометрии (в том числе принцип «publish or death», «карусель цитирований» и прочие наши прелести), и, конечно, вопрос о возможности обучения LLM-моделей на синтетических научных данных (немного писала про это тут).
Отдельные респекты ребятам за:
▪️Упоминание archive.org и четкое указание на тот факт, что там много препринтов статей, не прошедших процедуру рецензирования. Студентам я постоянно проговариваю, что это ресурс, где часто попадается непроверенный научный мусор, и, следовательно, ко многим хранящимся там текстам надо относиться с осторожностью.
▪️Упоминание ConnectedPapers (крутой сервис для поиска тематически-схожих научных статей по визуальным графам) и других классных научных инструментов. (Полная подборка от ребят тут + еще одна подборка от меня).
В общем, рекомендую посмотреть стрим целиком - весьма интересно и актуально (особенно для регулярно публикующихся людей).
#рекомендасьон
YouTube
НАУКА ДЛЯ ВСЕХ / ЮРИЙ КАШНИЦКИЙ, КАЛИ НОВСКАЯ
На сегодняшнем стриме с гостем Юрием Кашницким, Principal Machine Learning Scientist в научном издательстве Elsevier, Ph.D., создателем открытого курса по машинному обучению mlcourse.ai, поговорим про:
- Ситуацию с доступом к научным работам, подходы традиционных…
- Ситуацию с доступом к научным работам, подходы традиционных…
Умер Дэнниел Деннет
Если вы не читали его работы про иллюзию сознания, эволюцию разума, «веру в веру» и др. - сейчас самое время поместить пару его книг в свой риддинг-лист и понять, почему этот философ стал классиком еще при жизни.
С Деннетом есть множество интервью, видео и подкастов. Но я поделюсь только самым сокровенным - записью лекции, прочитанной им на философском факультете МГУ в далеком 2012 году.
Я тогда была абитуриенткой и, послушав это выступление, для себя отметила, что философия сознания - это явно не то, чем я хотела бы заниматься. Кто бы знал.
R.I.P.
Если вы не читали его работы про иллюзию сознания, эволюцию разума, «веру в веру» и др. - сейчас самое время поместить пару его книг в свой риддинг-лист и понять, почему этот философ стал классиком еще при жизни.
С Деннетом есть множество интервью, видео и подкастов. Но я поделюсь только самым сокровенным - записью лекции, прочитанной им на философском факультете МГУ в далеком 2012 году.
Я тогда была абитуриенткой и, послушав это выступление, для себя отметила, что философия сознания - это явно не то, чем я хотела бы заниматься. Кто бы знал.
R.I.P.
YouTube
Дэниел Деннет на философском факультете МГУ
Какая-то череда грустных новостей: из OpenAI ушел их «штатный философ».
Напомню, что Daniel Kokotajlo формально числился в future/governance team и работал над созданием прогнозов развития AGI (в качестве примера почитайте его пост на LessWrong “What 2026 looks like”, написанный 3 года назад).
А ушел он из-за “потери уверенности в том, что OpenAI будет вести себя ответственно во время внедрения AGI”.
К слову, данная новость грустна не только из-за этого наверняка надуманного повода. Просто мне через час выступать перед школьниками, а я потеряла крутой пример ответа на вечный вопрос «А кем работают философы?»..
#philosophy
Напомню, что Daniel Kokotajlo формально числился в future/governance team и работал над созданием прогнозов развития AGI (в качестве примера почитайте его пост на LessWrong “What 2026 looks like”, написанный 3 года назад).
А ушел он из-за “потери уверенности в том, что OpenAI будет вести себя ответственно во время внедрения AGI”.
К слову, данная новость грустна не только из-за этого наверняка надуманного повода. Просто мне через час выступать перед школьниками, а я потеряла крутой пример ответа на вечный вопрос «А кем работают философы?»..
#philosophy