На медузе вышел текст про AGI и это пример журналисткой безграмотности. 🫠
Там столько ошибочных и ложных утверждений, что просто больно смотреть. А ведь этот текст прочитают много людей и сделают неверные выводы.
Могли бы что ли проконсультироваться со знающими людьми вроде Игоря (https://www.tgoop.com/seeallochnaya) или Артема (https://www.tgoop.com/ai_newz).
ИМХО такие тексты вредят и формируют неправильное мнение у общей аудитории.
Читайте проверенные источники.
Там столько ошибочных и ложных утверждений, что просто больно смотреть. А ведь этот текст прочитают много людей и сделают неверные выводы.
Могли бы что ли проконсультироваться со знающими людьми вроде Игоря (https://www.tgoop.com/seeallochnaya) или Артема (https://www.tgoop.com/ai_newz).
ИМХО такие тексты вредят и формируют неправильное мнение у общей аудитории.
Читайте проверенные источники.
Я долго не писал про Deep Seek r1, потому что было очень много информации для переваривания. Кругом слухи, интервью, юзкейсы, восхищения и подозрения. Сейчас, мне кажется, уже можно разобраться в некоторых утверждениях. Поехали:
❌ DeepSeek потратили $6 миллионов на обучение модели
Не совсем так. DeepSeek потратили эти деньги только на финальный запуск обучения, из которого получилась сама модель, которой мы пользуемся. То есть в эту сумму не входят все предыдущие эксперименты (а их точно было много), а также косты на людей, данные, видеокарты. Более того, r1 это модель поверх другой базовой модели - DeepSeek-V3. Очевидно, она тоже возникла не из воздуха и не бесплатно. Ну и еще вопрос: откуда данные для обучения? Понятно, что часть они собрали сами. Но похоже еще часть насинтезировали с других моделей - как минимум это модели OpenAI, Anthropic и, внезапно, Yandex. Такой вывод можно сделать из того, что r1 нет-нет, да и представится чужим именем. Ну а насинтезировать данные - это тоже небесплатно, само собой.
❌ DeepSeek r1 - это сторонний проект (side project).
Тоже сомнительно. Это подается под соусом "чуваки по фану сделали модель уровня о1 на коленке и за плошку риса". Разлетелся этот тейк после твита Han Xiao, хотя он к deep seek особого отношения не имеет. Между тем, DeepSeek финансируется исключительно китайским хедж-фондом High-Flyer. Хедж-фонд — это такой инвестиционный фонд для богатых, который использует сложные и рискованные стратегии, чтобы заработать больше денег. Так вот этот High-Flyer вертит активами на $7 миллиардов, а его основатель - Лианг Венфенг - является и основателем DeepSeek. То есть это буквально один и тот же человек. Согласно Reuters, в марте 2023 года High-Flyer написал в WeChat (китайская соцсеть), что они выходят за рамки трейдинга и концентрируют ресурсы на создании "новой и независимой исследовательской группы для изучения сущности AGI". Ну и позже в этом же году появилась компания DeepSeek. Уже не звучит, как сторонний проект, не так ли?
✅ DeepSeek обошлись небольшим количеством видеокарт.
Кажется, что это отчасти так. Но только отчасти. Они репортят, что для базовой модели V3 они использовали 2048 штук H800. Утверждается, что DeepSeek не использовали видеокарты H100 из-за санкций США, которые сделали их труднодоступными. Вместо этого они оптимизировали свою модель и процесс обучения для работы с H800, у которых ниже пропускная способность памяти, но которые можно легально купить. Для преодоления ограничений H800 они пошли на разные хитрости вроде программирования на уровне PTX (низкоуровневый язык для GPU), чтобы эффективно управлять коммуникацией между видеокартами, и использование вычислений в FP8, прогнозирование сразу нескольких токенов, использование Mixture of Experts. В общем, голь на выдумку хитра и это очень впечатляет, слов нет. Но и здесь стоит учесть две вещи. Во-первых, 2048 штук H800 - это порядка $50 миллионов (side project, ага). Во-вторых, CEO Scale AI Александр Ванг утверждает, что у DeepSeek есть 50.000 штук H100 (то есть они их купили в обход санкций). Это слух, который невозможно подтвердить или опровергнуть. Илон Маск на эту инфу написал "Obviously", но он тот ещё актер одного театра. Есть мнение, что этот слух пошел от другого твита, где утверждается, что у DeepSeek 50 тысяч видеокарт Hopper, без уточнения каких конкретно (то есть возможно и H800). Так или иначе, источник этих слухов "trust me bro", но я нисколько не удивлюсь, если это окажется правдой.
❌ DeepSeek потратили $6 миллионов на обучение модели
Не совсем так. DeepSeek потратили эти деньги только на финальный запуск обучения, из которого получилась сама модель, которой мы пользуемся. То есть в эту сумму не входят все предыдущие эксперименты (а их точно было много), а также косты на людей, данные, видеокарты. Более того, r1 это модель поверх другой базовой модели - DeepSeek-V3. Очевидно, она тоже возникла не из воздуха и не бесплатно. Ну и еще вопрос: откуда данные для обучения? Понятно, что часть они собрали сами. Но похоже еще часть насинтезировали с других моделей - как минимум это модели OpenAI, Anthropic и, внезапно, Yandex. Такой вывод можно сделать из того, что r1 нет-нет, да и представится чужим именем. Ну а насинтезировать данные - это тоже небесплатно, само собой.
❌ DeepSeek r1 - это сторонний проект (side project).
Тоже сомнительно. Это подается под соусом "чуваки по фану сделали модель уровня о1 на коленке и за плошку риса". Разлетелся этот тейк после твита Han Xiao, хотя он к deep seek особого отношения не имеет. Между тем, DeepSeek финансируется исключительно китайским хедж-фондом High-Flyer. Хедж-фонд — это такой инвестиционный фонд для богатых, который использует сложные и рискованные стратегии, чтобы заработать больше денег. Так вот этот High-Flyer вертит активами на $7 миллиардов, а его основатель - Лианг Венфенг - является и основателем DeepSeek. То есть это буквально один и тот же человек. Согласно Reuters, в марте 2023 года High-Flyer написал в WeChat (китайская соцсеть), что они выходят за рамки трейдинга и концентрируют ресурсы на создании "новой и независимой исследовательской группы для изучения сущности AGI". Ну и позже в этом же году появилась компания DeepSeek. Уже не звучит, как сторонний проект, не так ли?
✅ DeepSeek обошлись небольшим количеством видеокарт.
Кажется, что это отчасти так. Но только отчасти. Они репортят, что для базовой модели V3 они использовали 2048 штук H800. Утверждается, что DeepSeek не использовали видеокарты H100 из-за санкций США, которые сделали их труднодоступными. Вместо этого они оптимизировали свою модель и процесс обучения для работы с H800, у которых ниже пропускная способность памяти, но которые можно легально купить. Для преодоления ограничений H800 они пошли на разные хитрости вроде программирования на уровне PTX (низкоуровневый язык для GPU), чтобы эффективно управлять коммуникацией между видеокартами, и использование вычислений в FP8, прогнозирование сразу нескольких токенов, использование Mixture of Experts. В общем, голь на выдумку хитра и это очень впечатляет, слов нет. Но и здесь стоит учесть две вещи. Во-первых, 2048 штук H800 - это порядка $50 миллионов (side project, ага). Во-вторых, CEO Scale AI Александр Ванг утверждает, что у DeepSeek есть 50.000 штук H100 (то есть они их купили в обход санкций). Это слух, который невозможно подтвердить или опровергнуть. Илон Маск на эту инфу написал "Obviously", но он тот ещё актер одного театра. Есть мнение, что этот слух пошел от другого твита, где утверждается, что у DeepSeek 50 тысяч видеокарт Hopper, без уточнения каких конкретно (то есть возможно и H800). Так или иначе, источник этих слухов "trust me bro", но я нисколько не удивлюсь, если это окажется правдой.
✅ DeepSeek r1 крутая модель, которая встряхнула больших игроков вроде OpenAI и заставила их напрячься.
Да, и да. Модель и правда классная, да еще и открытая. Читать цепочку ее рассуждения очень интересно и залипательно, а в веб версии к ней прикрутили еще и поисковик и ее можно использовать, как Google Deep Research. И все это бесплатно в веб версии. При этом модель открыта и потенциально я могу запустить ее у себя на работе на 8 x H100. Более крутых открытых альтернатив, мне кажется, нет. А при этом по API она стоит копейки, в сравнении с o1. Кажется, что именно из-за r1 Сэм Альтман решил дать доступ к o3-mini аж бесплатно. А Google начали хвалиться тем, что их последняя думающая модель Gemini доступна бесплатно, обладает большим контекстным окном и к ней скоро прикрутят поиск. Тем не менее, независимые бенчмарки и оценки которые я видел говорят о том, что r1 уступает o1. По моим личным ощущениям и тестам это тоже так.
❌ Есть 6 версий DeepSeek r1 разного размера.
Это не так, r1 на самом деле один и он MoE на 671 миллиард параметров. Все остальное, это файн-тюны Qwen и Llama. Самое важное здесь понимать, что в них нет Reinforcement Learning этапа обучения, который и делает всю магию r1. Если вы видите новость о том, что кто-то запустил r1 на телефоне - это туфта.
❓Из-за deep seek упали фондовые рынки.
Откровенно говоря, я не знаю. Может оно и повлияло, но лично мне это кажется сомнительным. Хотя определенная логика тут, конечно, есть: опасения по конкурентоспособности американских бигтехов и сомнения в необходимости больших затрат в инфраструктуру ИИ. Но кажется, что в мире есть факторы и посильнее.
Ну и пара моих личных спекуляций (вообще не претендую на истину).
DeepSeek дали нам классную модель и подвинули Meta на фронте опенсорса - а это ничего себе. Лично мне кажется, у них есть уже и другие модели (скажем r2) и скоро мы о них услышим. В то же время, я думаю дешевые цены на r1 долго не продержаться, мне кажется тут китайцы демпингуют.
Ждем продолжения сериала.🍿
Да, и да. Модель и правда классная, да еще и открытая. Читать цепочку ее рассуждения очень интересно и залипательно, а в веб версии к ней прикрутили еще и поисковик и ее можно использовать, как Google Deep Research. И все это бесплатно в веб версии. При этом модель открыта и потенциально я могу запустить ее у себя на работе на 8 x H100. Более крутых открытых альтернатив, мне кажется, нет. А при этом по API она стоит копейки, в сравнении с o1. Кажется, что именно из-за r1 Сэм Альтман решил дать доступ к o3-mini аж бесплатно. А Google начали хвалиться тем, что их последняя думающая модель Gemini доступна бесплатно, обладает большим контекстным окном и к ней скоро прикрутят поиск. Тем не менее, независимые бенчмарки и оценки которые я видел говорят о том, что r1 уступает o1. По моим личным ощущениям и тестам это тоже так.
❌ Есть 6 версий DeepSeek r1 разного размера.
Это не так, r1 на самом деле один и он MoE на 671 миллиард параметров. Все остальное, это файн-тюны Qwen и Llama. Самое важное здесь понимать, что в них нет Reinforcement Learning этапа обучения, который и делает всю магию r1. Если вы видите новость о том, что кто-то запустил r1 на телефоне - это туфта.
❓Из-за deep seek упали фондовые рынки.
Откровенно говоря, я не знаю. Может оно и повлияло, но лично мне это кажется сомнительным. Хотя определенная логика тут, конечно, есть: опасения по конкурентоспособности американских бигтехов и сомнения в необходимости больших затрат в инфраструктуру ИИ. Но кажется, что в мире есть факторы и посильнее.
Ну и пара моих личных спекуляций (вообще не претендую на истину).
DeepSeek дали нам классную модель и подвинули Meta на фронте опенсорса - а это ничего себе. Лично мне кажется, у них есть уже и другие модели (скажем r2) и скоро мы о них услышим. В то же время, я думаю дешевые цены на r1 долго не продержаться, мне кажется тут китайцы демпингуют.
Ждем продолжения сериала.🍿
Оформил вчерашний текст одним постом (телега разбила на два)
https://telegra.ph/Deepseek-r1-fakty-mify-i-spekulyacii-01-29
https://telegra.ph/Deepseek-r1-fakty-mify-i-spekulyacii-01-29
Telegraph
Deepseek r1: факты, мифы и спекуляции
Я долго не писал про DeepSeek r1, потому что было очень много информации для переваривания. Кругом слухи, интервью, юзкейсы, восхищения и подозрения. Сейчас, мне кажется, уже можно разобраться в некоторых утверждениях. Поехали: ❌ DeepSeek потратили $6 миллионов…
Ребята из ARC-AGI протестировали DeepSeek r1 и r1-Zero, получив 15.8% и 14% соответственно. Для сравнения, OpenAI o1 в low compute-режиме показал 20.5%.
Но это не самое интересное.
Главное отличие r1-Zero – отсутствие Supervised Fine-Tuning (SFT), модель обучалась только Reinforcement Learning (RL). То есть не использовались данные, подготовленные людьми. DeepSeek добавили SFT в r1, так как без него r1-Zero смешивала языки и её рассуждения было сложно читать.
Однако ARC-AGI считает, что это не баг, а фича: на их тестах модель работала хорошо, без явной несвязанности.
Их выводы заставляют задуматься:
1. SFT не обязателен для точного пошагового рассуждения (CoT) в верифицируемых областях.
2. RL-обучение позволяет модели создавать собственный предметно-специфический язык (DSL) в пространстве токенов.
3. RL повышает универсальность CoT в разных областях.
Занятное чтиво: https://arcprize.org/blog/r1-zero-r1-results-analysis
Но это не самое интересное.
Главное отличие r1-Zero – отсутствие Supervised Fine-Tuning (SFT), модель обучалась только Reinforcement Learning (RL). То есть не использовались данные, подготовленные людьми. DeepSeek добавили SFT в r1, так как без него r1-Zero смешивала языки и её рассуждения было сложно читать.
Однако ARC-AGI считает, что это не баг, а фича: на их тестах модель работала хорошо, без явной несвязанности.
Их выводы заставляют задуматься:
1. SFT не обязателен для точного пошагового рассуждения (CoT) в верифицируемых областях.
2. RL-обучение позволяет модели создавать собственный предметно-специфический язык (DSL) в пространстве токенов.
3. RL повышает универсальность CoT в разных областях.
Занятное чтиво: https://arcprize.org/blog/r1-zero-r1-results-analysis
OpenEuroLLM, или как Евросоюз пытается в AI.
Сегодня анонсировали семейство open-source моделей от ЕС для ЕС. С одной стороны это все страшный стыд, с другой - людям нравится медленный и административный подход ЕС, и в этом даже просматривается некая логика.
Давайте я постараюсь объяснить стыд и в то же время побуду адвокатом дьявола.
Итак, Европейская Комиссия (!) сделала анонс OpenEuroLLM в твиттере. Анонс выглядит больше как релиз - складывается впечатление, что модели уже есть. Но это не так. И вообще говоря, Еврокомиссия- последнее место, где такой анонс ожидаешь увидеть. Естественно, в комментах им напихали в панамку.
Вот что вообще происходит.
ЕС собрал кучу вузов, стартапов и компаний из разных стран в проект OpenEuroLLM. Среди компаний, кстати, нет Mistral - ну вы понимаете, собрали лучших из лучших.
Хотят выпустить открытые модели, поддерживающие все языки ЕС. Вот, собственно, и все. При ближайшем рассмотрении анонс оказывается о том, что модели прошли какой-то там бюрократический стандарт.
В общем, все грустно, медленно и тухло.
С другой стороны, мои коллеги и разные люди с конференций и митапов говорят мне, что им нравится такой подход. Мол, все эти AI модели неизведанная и опасная дичь. Надо подождать, пока станет понятно, как с этим всем безопасно работать. И сделать свои модели, в которых мы будем уверены. А то всякие OpenAI чёрти что творят: данные наворовали, модели biased, хакать их легко, галлюцинируют только так. Ну с этим просто невозможно спокойно жить!
Мне кажется, в этом весь ЕС - люди голосуют и выбирают понятное, безопасное и спокойное. А все инновации под это по определению не попадают.
Тут у меня лично возникает диссонанс. С одной стороны Европа мне нравится именно равномерными секьюрностью и высоким уровнем жизни в целом. С другой стороны, я кайфую от безостановочного AI фестиваля.
Вот и как быть?
Сегодня анонсировали семейство open-source моделей от ЕС для ЕС. С одной стороны это все страшный стыд, с другой - людям нравится медленный и административный подход ЕС, и в этом даже просматривается некая логика.
Давайте я постараюсь объяснить стыд и в то же время побуду адвокатом дьявола.
Итак, Европейская Комиссия (!) сделала анонс OpenEuroLLM в твиттере. Анонс выглядит больше как релиз - складывается впечатление, что модели уже есть. Но это не так. И вообще говоря, Еврокомиссия- последнее место, где такой анонс ожидаешь увидеть. Естественно, в комментах им напихали в панамку.
Вот что вообще происходит.
ЕС собрал кучу вузов, стартапов и компаний из разных стран в проект OpenEuroLLM. Среди компаний, кстати, нет Mistral - ну вы понимаете, собрали лучших из лучших.
Хотят выпустить открытые модели, поддерживающие все языки ЕС. Вот, собственно, и все. При ближайшем рассмотрении анонс оказывается о том, что модели прошли какой-то там бюрократический стандарт.
В общем, все грустно, медленно и тухло.
С другой стороны, мои коллеги и разные люди с конференций и митапов говорят мне, что им нравится такой подход. Мол, все эти AI модели неизведанная и опасная дичь. Надо подождать, пока станет понятно, как с этим всем безопасно работать. И сделать свои модели, в которых мы будем уверены. А то всякие OpenAI чёрти что творят: данные наворовали, модели biased, хакать их легко, галлюцинируют только так. Ну с этим просто невозможно спокойно жить!
Мне кажется, в этом весь ЕС - люди голосуют и выбирают понятное, безопасное и спокойное. А все инновации под это по определению не попадают.
Тут у меня лично возникает диссонанс. С одной стороны Европа мне нравится именно равномерными секьюрностью и высоким уровнем жизни в целом. С другой стороны, я кайфую от безостановочного AI фестиваля.
Вот и как быть?
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк, начало
Один из исследователей OpenAI поделился графиком насыщения бенчмарков за прошедшие годы. С такой скоростью мы просто перестанем успевать создавать новые тесты. 🤷♂️
Сэм Альтман рассказал о дальнейших планах OpenAI.
Планируют выпустить GPT-4.5 (подтвердили, что это Orion) в ближайшие недели — это будет последняя “нелинейно размышляющая” (non-chain-of-thought) модель.
Затем последует GPT-5, которая объединит модели o-series и GPT-series, станет универсальнее. Будет доступна как в приложении, так и через API.
GPT-5 включи в себя o3, а сама o3 не будет выпускаться отдельно. Бесплатные пользователи ChatGPT получат доступ к GPT-5 (на стандартном уровне интеллекта). Plus-подписчики получат улучшенную версию GPT-5. Pro-подписчики получат ещё более мощную версию. Plus и Pro будут включать голос, canvas, поиск, deep research и другие функции (какие?).
GPT-4.5 – через несколько недель!
GPT-5 – через несколько месяцев!
Планируют выпустить GPT-4.5 (подтвердили, что это Orion) в ближайшие недели — это будет последняя “нелинейно размышляющая” (non-chain-of-thought) модель.
Затем последует GPT-5, которая объединит модели o-series и GPT-series, станет универсальнее. Будет доступна как в приложении, так и через API.
GPT-5 включи в себя o3, а сама o3 не будет выпускаться отдельно. Бесплатные пользователи ChatGPT получат доступ к GPT-5 (на стандартном уровне интеллекта). Plus-подписчики получат улучшенную версию GPT-5. Pro-подписчики получат ещё более мощную версию. Plus и Pro будут включать голос, canvas, поиск, deep research и другие функции (какие?).
GPT-4.5 – через несколько недель!
GPT-5 – через несколько месяцев!
X (formerly Twitter)
Sam Altman (@sama) on X
OPENAI ROADMAP UPDATE FOR GPT-4.5 and GPT-5:
We want to do a better job of sharing our intended roadmap, and a much better job simplifying our product offerings.
We want AI to “just work” for you; we realize how complicated our model and product offerings…
We want to do a better job of sharing our intended roadmap, and a much better job simplifying our product offerings.
We want AI to “just work” for you; we realize how complicated our model and product offerings…
Perplexity Deep Research
Еще один сервис по умному и глубокому поиску, теперь от Perplexity и бесплатно.
Показывает 20.5% на Humanity’s Last Exam (но это, кажется, экспертная платная версия). У OpenAI 26%.
Умеет примерно всё то же самое, что и версия от OpenAI:
- делает десятки поисковых запросов
- читает сотни источников
- размышляет (reasoning) по найденному
- может кодить под капотом
- тратит несколько минут на один запрос
- пишет отчеты и сохраняет их в pdf
Бесплатная версия, похоже, немного урезанная. А платным подписчикам за $20 обещают expert level researcher со странным ограничением в 500 запросов в день.
Судя по всему основное преимущество OpenAI в специальной версии модели о3, которая и создает магию - все таки сложно с ними соревноваться. Но очень приятно, что Perplexity уже дают бесплатный доступ к чему-то такому.
https://www.perplexity.ai/hub/blog/introducing-perplexity-deep-research
P.S. Deep Research оказался настолько интересным сервисом, что делают его все, при этом не меняя названия. 🙃
Еще один сервис по умному и глубокому поиску, теперь от Perplexity и бесплатно.
Показывает 20.5% на Humanity’s Last Exam (но это, кажется, экспертная платная версия). У OpenAI 26%.
Умеет примерно всё то же самое, что и версия от OpenAI:
- делает десятки поисковых запросов
- читает сотни источников
- размышляет (reasoning) по найденному
- может кодить под капотом
- тратит несколько минут на один запрос
- пишет отчеты и сохраняет их в pdf
Бесплатная версия, похоже, немного урезанная. А платным подписчикам за $20 обещают expert level researcher со странным ограничением в 500 запросов в день.
Судя по всему основное преимущество OpenAI в специальной версии модели о3, которая и создает магию - все таки сложно с ними соревноваться. Но очень приятно, что Perplexity уже дают бесплатный доступ к чему-то такому.
https://www.perplexity.ai/hub/blog/introducing-perplexity-deep-research
P.S. Deep Research оказался настолько интересным сервисом, что делают его все, при этом не меняя названия. 🙃
www.perplexity.ai
Introducing Perplexity Deep Research
Deep Research accelerates question answering by completing in 2-4 minutes what would take a human expert many hours.
Majorana 1
Тут у нас, похоже, происходит революция в квантовых компьютерах и совершают её Microsoft. Научную статью опубликовали в Nature, а с MS уже сотрудничает DARPA, так что все признают, что это не булшит. Давайте попробуем разобраться.
Итак, Microsoft представил квантовый процессор Majorana 1, разработанный используя новый материал (!) (топо-проводник), который образует уникальное новое состояние вещества(!). Это позволяет делать гораздо более стабильные, маленькие и масштабируемые кубиты для квантовых компьютеров. В одном чипе Majorana 1 всего 8 кубитов, но MS утверждают, что их несложно скейлить. В результате они хотят (и, судя по всему, могут) построить прототип мощного квантового компьютера с миллионами кубитов (это очень-очень много) за несколько лет, а не десятилетий.
Тут интересно ещё и вот что: основной прорыв связан с открытием нового класса материалов - MS его называют топо-проводники. Они позволяют реализовать штуку под названием "топологическая сверхпроводимость" – необычный вид сверхпроводимости, в котором возникают состояния, защищённые от локальных возмущений, что даёт возможность устойчиво хранить квантовую информацию. Тут совсем крышеснос, потому что по сути это - новое состояние материи, которое ранее существовало лишь в теории. А стало возможным на практике благодаря разработке и производстве управляемых затворами устройств, сочетающих арсенид индия (полупроводник) и алюминий (сверхпроводник). При охлаждении до температуры, близкой к абсолютному нулю, и настройке магнитными полями эти устройства образуют топологические сверхпроводящие нанопровода с нулевыми модами Майораны (Majorana Zero Modes - MZM) на их концах. Проще говоря, нанопровод с MZM – это крошечный квантовый проводник, в котором на концах появляются квазичастицы, пригодные для создания стабильных квантовых кубитов. Эти квазичастицы называются майорановские фермионы и они существовали только в теории до сегодняшнего дня. Microsoft утверждают, что нашли способ создавать и контролировать их.
В общем, квантовые компьютеры потихоньку становятся реальностью, в удивительное время живем!
Блог пост от MS.
Чуть более технический пост от MS.
Статья в Nature.
Тут у нас, похоже, происходит революция в квантовых компьютерах и совершают её Microsoft. Научную статью опубликовали в Nature, а с MS уже сотрудничает DARPA, так что все признают, что это не булшит. Давайте попробуем разобраться.
Итак, Microsoft представил квантовый процессор Majorana 1, разработанный используя новый материал (!) (топо-проводник), который образует уникальное новое состояние вещества(!). Это позволяет делать гораздо более стабильные, маленькие и масштабируемые кубиты для квантовых компьютеров. В одном чипе Majorana 1 всего 8 кубитов, но MS утверждают, что их несложно скейлить. В результате они хотят (и, судя по всему, могут) построить прототип мощного квантового компьютера с миллионами кубитов (это очень-очень много) за несколько лет, а не десятилетий.
Тут интересно ещё и вот что: основной прорыв связан с открытием нового класса материалов - MS его называют топо-проводники. Они позволяют реализовать штуку под названием "топологическая сверхпроводимость" – необычный вид сверхпроводимости, в котором возникают состояния, защищённые от локальных возмущений, что даёт возможность устойчиво хранить квантовую информацию. Тут совсем крышеснос, потому что по сути это - новое состояние материи, которое ранее существовало лишь в теории. А стало возможным на практике благодаря разработке и производстве управляемых затворами устройств, сочетающих арсенид индия (полупроводник) и алюминий (сверхпроводник). При охлаждении до температуры, близкой к абсолютному нулю, и настройке магнитными полями эти устройства образуют топологические сверхпроводящие нанопровода с нулевыми модами Майораны (Majorana Zero Modes - MZM) на их концах. Проще говоря, нанопровод с MZM – это крошечный квантовый проводник, в котором на концах появляются квазичастицы, пригодные для создания стабильных квантовых кубитов. Эти квазичастицы называются майорановские фермионы и они существовали только в теории до сегодняшнего дня. Microsoft утверждают, что нашли способ создавать и контролировать их.
В общем, квантовые компьютеры потихоньку становятся реальностью, в удивительное время живем!
Блог пост от MS.
Чуть более технический пост от MS.
Статья в Nature.
Microsoft
Microsoft’s Majorana 1 chip carves new path for quantum computing
Majorana 1, the first quantum chip powered by a new Topological Core architecture .
Forwarded from Гомеостатическая Вселенная
Пока небольшой комментарий к новостям про то, что Майкрософт создали какой-то супер-пупер квантовый компьютер. Спойлер алерт: это все обман, чтобы набрать классы.
Но по порядку. Квантовые компьютеры делают из разных кубитов: некоторые используют сверхпроводящие микросхемы (как IBM и Google), некоторые — ионы (IonQ например), некоторые — фотоны (Xanadu). Ну и есть много других вариантов. Самая большая проблема с квантовыми компьютерами в том, что квантовая запутанность в них очень легко разрушается минимальным внешним воздействием. Поэтому эти комьютеры стараются изолировать от внешнего мира как можно лучше: засовывают в супер-криостаты, используют лучшие материалы и т.д.
Среди этих подходов выделяется один: топологические квантовые компьютеры. Точную работу описать довольно сложно, но попробую такую аналогию. Представьте, что у вас есть железная дорога типа Brio и вы можете катать по ней туда-сюда вагончики. А еще можете пересекать пути, делать мосты и т.д. Общая структура вашей дороги (как именно они пересекаются, сколько пересечений и между какими путям и т.д.) является ее топологией. В этих пересечениях реализуются вентили компьютера (т.е. логические операции). Так вот, внешний мир действует на вагончики: они то тормозят, то ускоряются, то вибрируют, то вообще пропадают. В обычном квантовом компьютере это является основной проблемой: квантовые состояния (вагончики) разрушаются, появляются ошибки. Но в топологическом квантовом компьютере операции зависят не от одиночкых вагончиков, а от общей структуры путей, а она остается постоянной и не подвержена влиянию внешнего мира (почти). Потенциально это очень мощный инструмент для реализации квантовых компьютеров, так как ему не страшен внешний мир.
На практике никто не знает, как именно это сделать. Вагончики должны быть очень специальными, чтобы реализовать такой компьютер. Это должны быть квазичастицы, которые называются анионы и обладают очень необычными свойствами. Они существуют в определенных двумерных материалах в определенных условиях (возможно). Майорановские фермионы, о которых вы слышали в новостях про Майкрософт — пример таких частиц.
Ура, введение готово, пора перейти к драме. Пока IBM и Google соревнуются за количество кубитов и пытаются как-то найти способ увеличить их до полезной величины, Microsoft пошли другим путем и пытаются создать топологический квнатовый компьютер. Если у них это получится, они обойдут всех на повороте и унесутся за горизонт. Но пока попытки, мягко говоря, не внушают доверия.
Из года в год они публикуют результаты про открытие и изучение этих самых Майорановских фермионов в самых престижных журналах. Из года в год в этих результатах находят ошибки, неверную статистику и прямой подлог и статьи отзываются (таких статей уже набралось не одна и не две, можно вот тут эпичный тред посмотреть). Т.к. это майкрософт, публиковать данные они отказываются (NDA и все такое) и верифицировать никак не получается. Но на каждой статье они собирают хайп, лайки и инвестиции — что еще нужно. Вот и нынешние "новости" — ровно из той же оперы. Те же авторы, один из рецензентов — главный автор прошлых отозванных статей, те же проблемы с данными и их доступностью, и т.д. Нет никаких оснований доверять этому. В целом, научное комьюнити давно уже крутит пальцем у виска, и главной загадкой остается вопрос, почему их вообще продолжают публиковать (хотя это и не загадка никакая, всем все понятно, кто за этим стоит).
В общем, не верьте хайпу! Я нарочно не даю ссылки на новости или статью, чтобы не разгонять этот хайп дальше. В целом, любые новости про квантовые компьютеры всегда можно делить на 10-100, но в особенности когда говорят про "прорыв, которого еще никогда не было". Это уж почти наверняка какая-то лажа.
Но по порядку. Квантовые компьютеры делают из разных кубитов: некоторые используют сверхпроводящие микросхемы (как IBM и Google), некоторые — ионы (IonQ например), некоторые — фотоны (Xanadu). Ну и есть много других вариантов. Самая большая проблема с квантовыми компьютерами в том, что квантовая запутанность в них очень легко разрушается минимальным внешним воздействием. Поэтому эти комьютеры стараются изолировать от внешнего мира как можно лучше: засовывают в супер-криостаты, используют лучшие материалы и т.д.
Среди этих подходов выделяется один: топологические квантовые компьютеры. Точную работу описать довольно сложно, но попробую такую аналогию. Представьте, что у вас есть железная дорога типа Brio и вы можете катать по ней туда-сюда вагончики. А еще можете пересекать пути, делать мосты и т.д. Общая структура вашей дороги (как именно они пересекаются, сколько пересечений и между какими путям и т.д.) является ее топологией. В этих пересечениях реализуются вентили компьютера (т.е. логические операции). Так вот, внешний мир действует на вагончики: они то тормозят, то ускоряются, то вибрируют, то вообще пропадают. В обычном квантовом компьютере это является основной проблемой: квантовые состояния (вагончики) разрушаются, появляются ошибки. Но в топологическом квантовом компьютере операции зависят не от одиночкых вагончиков, а от общей структуры путей, а она остается постоянной и не подвержена влиянию внешнего мира (почти). Потенциально это очень мощный инструмент для реализации квантовых компьютеров, так как ему не страшен внешний мир.
На практике никто не знает, как именно это сделать. Вагончики должны быть очень специальными, чтобы реализовать такой компьютер. Это должны быть квазичастицы, которые называются анионы и обладают очень необычными свойствами. Они существуют в определенных двумерных материалах в определенных условиях (возможно). Майорановские фермионы, о которых вы слышали в новостях про Майкрософт — пример таких частиц.
Ура, введение готово, пора перейти к драме. Пока IBM и Google соревнуются за количество кубитов и пытаются как-то найти способ увеличить их до полезной величины, Microsoft пошли другим путем и пытаются создать топологический квнатовый компьютер. Если у них это получится, они обойдут всех на повороте и унесутся за горизонт. Но пока попытки, мягко говоря, не внушают доверия.
Из года в год они публикуют результаты про открытие и изучение этих самых Майорановских фермионов в самых престижных журналах. Из года в год в этих результатах находят ошибки, неверную статистику и прямой подлог и статьи отзываются (таких статей уже набралось не одна и не две, можно вот тут эпичный тред посмотреть). Т.к. это майкрософт, публиковать данные они отказываются (NDA и все такое) и верифицировать никак не получается. Но на каждой статье они собирают хайп, лайки и инвестиции — что еще нужно. Вот и нынешние "новости" — ровно из той же оперы. Те же авторы, один из рецензентов — главный автор прошлых отозванных статей, те же проблемы с данными и их доступностью, и т.д. Нет никаких оснований доверять этому. В целом, научное комьюнити давно уже крутит пальцем у виска, и главной загадкой остается вопрос, почему их вообще продолжают публиковать (хотя это и не загадка никакая, всем все понятно, кто за этим стоит).
В общем, не верьте хайпу! Я нарочно не даю ссылки на новости или статью, чтобы не разгонять этот хайп дальше. В целом, любые новости про квантовые компьютеры всегда можно делить на 10-100, но в особенности когда говорят про "прорыв, которого еще никогда не было". Это уж почти наверняка какая-то лажа.