Media is too big
VIEW IN TELEGRAM
Впервые в истории у кого-то получилось создать логические кубиты, которые перформят ниже границы Quantum Error Correction. Это метод, при котором данные сохраняются путем распределения информации по нескольким кубитам. Дело в том, что обычно ошибки вычислений – ключевая проблема квантовых машин. Кубиты слишком быстро обмениваются информацией и имеют тенденцию терять ее. Обычно чем больше кубитов вы используете, тем больше ошибок возникает, и квантовая система вырождается в классическую. Но в Willow все наоборот: с ростом кубитов ошибки уменьшаются экспоненциально. Это поразительный результат, которого люди пытались добиться последние 30 лет.
А теперь приготовьтесь: Willow в септилион раз быстрее классического вычислительного чипа. То есть Willow может за 300 секунд решить задачу, на которую у обычного чипа бы ушло 10,000,000,000,000,000,000,000,000 лет (и это было доказано во время тестов).
А еще у чипа рекордное количество кубитов – 105. Конечно, это все еще мало (например, чтобы взломать биткоин, потребуется где-то 300-400 миллионов кубитов), но по сравнению с предыдущими квантовыми компьютерами – вау.
Блогпост Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉178🔥36👍26❤8🤔7👏5😁3🤨2
Media is too big
VIEW IN TELEGRAM
Еще у Google в дополнение к блогпосту вышло интересное короткое видео про историю квантовых вычислений и Willow. Основная мысль:
Первый свой квантовый чип Google выпустили в 2019. С того момента классические вычисления усовершенствовались в миллиарды раз. Но если классические вычисления растут по закону Мура, то квантовые растут и будут расти по закону Невена, а именно с двойной экспоненциальной скоростью относительно своих классических соперников.
Этот закон, к слову, придуман Хартмутом Невеном, который сейчас является директором лаборатории квантового искусственного интеллекта Google. В интервью в честь выхода Willow он говорит, что квантовые вычисления и ИИ будут взаимодополнять друг друга: ИИ может улучшить квантовые чипы, а квантовые компьютеры сделают ИИ мощнее.
А еще, кстати, Google опубликовали статью про Willow в Nature. Прочитать можно тут: www.nature.com/articles/s41586-024-08449-y
Первый свой квантовый чип Google выпустили в 2019. С того момента классические вычисления усовершенствовались в миллиарды раз. Но если классические вычисления растут по закону Мура, то квантовые растут и будут расти по закону Невена, а именно с двойной экспоненциальной скоростью относительно своих классических соперников.
Этот закон, к слову, придуман Хартмутом Невеном, который сейчас является директором лаборатории квантового искусственного интеллекта Google. В интервью в честь выхода Willow он говорит, что квантовые вычисления и ИИ будут взаимодополнять друг друга: ИИ может улучшить квантовые чипы, а квантовые компьютеры сделают ИИ мощнее.
А еще, кстати, Google опубликовали статью про Willow в Nature. Прочитать можно тут: www.nature.com/articles/s41586-024-08449-y
🔥41👍11❤6
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁81👍9🔥8🤯3
EpochAI запустили собственную арену для сравнения LLM
Это те самые ребята, которые постоянно делают крутые исследования (пост со списком их самых интересных ресерчей), а недавно катнули крутой математический бенчмарк (пост об этом).
Включать обещают только новые сложные бенчмарки, как раз такие как FrontierMath и SWE-Bench-Verified. Пока что доступны GPQA Diamond и MATH Level 5. А еще будет визуализация, открытые данные, анализы скорости и стоимостей.
Здорово, что появляется все больше таких платформ: так оценки становятся более независимыми и сложными.
Это те самые ребята, которые постоянно делают крутые исследования (пост со списком их самых интересных ресерчей), а недавно катнули крутой математический бенчмарк (пост об этом).
Включать обещают только новые сложные бенчмарки, как раз такие как FrontierMath и SWE-Bench-Verified. Пока что доступны GPQA Diamond и MATH Level 5. А еще будет визуализация, открытые данные, анализы скорости и стоимостей.
Здорово, что появляется все больше таких платформ: так оценки становятся более независимыми и сложными.
🔥35👌10❤4👍4
На бенчмарке MERA опубликовали модель, которую обходит только GPT-4о
На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные поставили елку 🎄
Теперь гадаем, кто это сделал
На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные поставили елку 🎄
Теперь гадаем, кто это сделал
🎄113❤24🤯12🤨3🔥2🤪2
Data Secrets
Вахид Каземи – PhD, сотрудник OpenAI и бывший сотрудник Apple и Google: По моему мнению мы уже достигли AGI, с o1 это очевидно. Возможно, мы еще не добрались до «лучше, чем любой человек в любой задаче», но то, что у нас есть, это уже «лучше, чем большинство…
Зацените уровень пасхалок: в офисе Anthropic хранится йодаргирит, химическая формула которого – AgI 🧐
Информацией, кстати, поделился один из разработчиков стартапа в ответ на тот самый «мы уже достигли AGI» твит ресерчера OpenAI. «Мы тоже уже достигли AgI и держим его за стеклом» – иронично написал он.
Информацией, кстати, поделился один из разработчиков стартапа в ответ на тот самый «мы уже достигли AGI» твит ресерчера OpenAI. «Мы тоже уже достигли AgI и держим его за стеклом» – иронично написал он.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁111🔥16🤯11🕊6❤1
4 день стримов OpenAI из 12: сегодня показали интерпретатор кода и еще несколько очень кайфовых фич для Canvas
Теперь код можно запускать прямо внутри бота с помощью кнопки Run. При этом GPT видит все трейсы интерпретатора и может писать комментарии прямо в них. Можно даже рисовать графики, и работает это достаточно быстро! Просто идеально для дебаггинга и рефакторинга.
Кроме того, теперь Canvas будет доступен для всех, а еще его можно будет встроить в собственные GPTs: делается это очень просто через настройки конфигураций.
Напоминаем, что Canvas – это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект (код или работа с текстом). Он, в отличие от чата, лучше запоминает контекст + работает над конкретными разделами или даже строками (подробнее в этом нашем посте).
В дополнение ко всему, для комментирования текста и кода теперь использовать инструмент будет еще удобнее: бот выделяет кусочки прямо в ваших запросах и записывает комментарии справа от них (похоже на умные заметки в стиле Google Docs).
Ссылка на стрим
Теперь код можно запускать прямо внутри бота с помощью кнопки Run. При этом GPT видит все трейсы интерпретатора и может писать комментарии прямо в них. Можно даже рисовать графики, и работает это достаточно быстро! Просто идеально для дебаггинга и рефакторинга.
Кроме того, теперь Canvas будет доступен для всех, а еще его можно будет встроить в собственные GPTs: делается это очень просто через настройки конфигураций.
Напоминаем, что Canvas – это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект (код или работа с текстом). Он, в отличие от чата, лучше запоминает контекст + работает над конкретными разделами или даже строками (подробнее в этом нашем посте).
В дополнение ко всему, для комментирования текста и кода теперь использовать инструмент будет еще удобнее: бот выделяет кусочки прямо в ваших запросах и записывает комментарии справа от них (похоже на умные заметки в стиле Google Docs).
Ссылка на стрим
❤38👍15⚡5
Media is too big
VIEW IN TELEGRAM
Помните Model Context Protocol от Anthropic?
Это открытый протокол, который позволяет интегрировать любую LLM в любой источник данных. С помощью MCP клиенты (то есть LLM или другие ИИ-инструменты) могут подсоединяться к любому совместимому серверу (то есть приложению или другому источнику данных). Побробности – в этом нашем посте.
Так вот, MCP вызвал настолько широкий и позитивный отклик а сообществе, что стартап даже решил провести хакатон именно на основе этой технологии. Он прошел на выходных: всего за 3 часа участникам нужно было выдать какую-то интересную идею применения MCP и воплотить ее. Вот победители:
– Приз зрительских симпатий: Santa Claude – сервис для автоматического серчинга новогодних подарков и их заказа с amazon.
– Productivity award: Clauduct Manager – ИИ-продакт, который создает, сортирует и пишет таски и тикеты в Linear.
– Code award: Claude Voyager – соединение клода с окружением, в котором он может полностью автономно управлять проектом.
Все эти проекты кажутся привычными. Но их смысл в том, что это НЕ кастомные решения по интеграции модельки в сервис, а реализованные всего за пару часов идеи применения готового протокола, и это очень круто. Если хотите попробовать поиграть с MCP сами, то наверху мы прикрепили краткий видео-гайд из Твиттера с объяснением того, как это сделать
Это открытый протокол, который позволяет интегрировать любую LLM в любой источник данных. С помощью MCP клиенты (то есть LLM или другие ИИ-инструменты) могут подсоединяться к любому совместимому серверу (то есть приложению или другому источнику данных). Побробности – в этом нашем посте.
Так вот, MCP вызвал настолько широкий и позитивный отклик а сообществе, что стартап даже решил провести хакатон именно на основе этой технологии. Он прошел на выходных: всего за 3 часа участникам нужно было выдать какую-то интересную идею применения MCP и воплотить ее. Вот победители:
– Приз зрительских симпатий: Santa Claude – сервис для автоматического серчинга новогодних подарков и их заказа с amazon.
– Productivity award: Clauduct Manager – ИИ-продакт, который создает, сортирует и пишет таски и тикеты в Linear.
– Code award: Claude Voyager – соединение клода с окружением, в котором он может полностью автономно управлять проектом.
Все эти проекты кажутся привычными. Но их смысл в том, что это НЕ кастомные решения по интеграции модельки в сервис, а реализованные всего за пару часов идеи применения готового протокола, и это очень круто. Если хотите попробовать поиграть с MCP сами, то наверху мы прикрепили краткий видео-гайд из Твиттера с объяснением того, как это сделать
👍42🔥13❤11
Data Secrets
На бенчмарке MERA опубликовали модель, которую обходит только GPT-4о На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные…
Тайна елочки на бечмарке раскрыта: это новые мощные модели от Т-Технологий, куда входит Т-Банк
В релиз вошли две языковые модели – новая T-Pro на 32B параметров и обновленная T-Lite на 7В. Обе стали SOTA русского языка среди открытых моделей на индустриальных бенчмарках (MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval).
Под капотом обеих моделей Qwen-2.5, который дообучали с помощью Continual Pretraining. Это чтобы модель прокачалась на русском, но не забыла свои базовые навыки и не просела на метриках, как это часто бывает. К тому же, такой подход на 80-90% сокращает косты.
Интересно, что это именно узконаправленные открытые модели. То есть, в отличие от универсального ChatGPT, они специализируются на решении конкретных задач. Соответственно, у них отдельно прокачан уровень доменных знаний и умение выполнять практические задачи бизнеса. Получается, теперь все могут абсолютно бесплатно брать T-Pro и T-Lite и идти прикручивать их к своим голосовым помощникам, агентам поддержки и пр. Б – буст!
Веса уже лежат на HuggingFace
В релиз вошли две языковые модели – новая T-Pro на 32B параметров и обновленная T-Lite на 7В. Обе стали SOTA русского языка среди открытых моделей на индустриальных бенчмарках (MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval).
Под капотом обеих моделей Qwen-2.5, который дообучали с помощью Continual Pretraining. Это чтобы модель прокачалась на русском, но не забыла свои базовые навыки и не просела на метриках, как это часто бывает. К тому же, такой подход на 80-90% сокращает косты.
Интересно, что это именно узконаправленные открытые модели. То есть, в отличие от универсального ChatGPT, они специализируются на решении конкретных задач. Соответственно, у них отдельно прокачан уровень доменных знаний и умение выполнять практические задачи бизнеса. Получается, теперь все могут абсолютно бесплатно брать T-Pro и T-Lite и идти прикручивать их к своим голосовым помощникам, агентам поддержки и пр. Б – буст!
Веса уже лежат на HuggingFace
🎄64👍28☃7❤🔥5😐2🤝2👀1🤪1
В Meta показали метод Coconut, который позволяет моделям строить цепочки ризонинга не на ествественном языке, а в латентном пространстве
Забавное название Coconut – это сокращение от Chain of Continuous Thought. В целом, это та же цепочка мыслей, просто не на естественном языке, а внутри скрытого слоя. Конкретнее: в CoT для ризонинга шаг за шагом в инпут модели добавляются сами токены аутпута один за одним, а в работе Meta вместо токенов используются недекодированные эмбеддинги с последнего слоя.
Это немного похоже на недавнюю работу Microsoft (разбор мы делали здесь), за исключением того, что там рассматривались агентские системы, а тут модель вместо других экземпляров общается как бы сама с собой.
Результаты получились неоднозначные: например, на GSM8k Coconut выбил 34,1%, когда как ванильный CoT достиг 42,9%. Но вот на бенчмарке логических рассуждений ProntoQA разрыв был на 1пп уже в пользу Coconut, а на ProsQA метод показал себя лучше СoT аж на 20пп! Ну и плюсом ко всему Coconut, естественно, быстрее.
Статья полностью тут
Забавное название Coconut – это сокращение от Chain of Continuous Thought. В целом, это та же цепочка мыслей, просто не на естественном языке, а внутри скрытого слоя. Конкретнее: в CoT для ризонинга шаг за шагом в инпут модели добавляются сами токены аутпута один за одним, а в работе Meta вместо токенов используются недекодированные эмбеддинги с последнего слоя.
Это немного похоже на недавнюю работу Microsoft (разбор мы делали здесь), за исключением того, что там рассматривались агентские системы, а тут модель вместо других экземпляров общается как бы сама с собой.
Результаты получились неоднозначные: например, на GSM8k Coconut выбил 34,1%, когда как ванильный CoT достиг 42,9%. Но вот на бенчмарке логических рассуждений ProntoQA разрыв был на 1пп уже в пользу Coconut, а на ProsQA метод показал себя лучше СoT аж на 20пп! Ну и плюсом ко всему Coconut, естественно, быстрее.
Статья полностью тут
👍34🔥13❤9😁3
Best Paper Awards – вообще очень престижная награда, тем более на NeurIPS, которая считается лучшей ML-конференцией в мире. Вот кто получил награду в этот раз:
Вы, кстати, удивитесь, но один из авторов этой статьи – тот самый стажер, который два месяца вставлял палки в колеса соседней команды, загружая порченные Pickle-файлы, полные вредоносного кода, удаляя чекпоинты, специально добавляя баги в корпоративный форк PyTorch и тд. Бывает же.
Немного раньше, в конце ноября, также объявляли победителей премии Test of Time Paper Awards NeurIPS 2024. Эта награда выдается старым статьям, которые прошли испытание временем. В прошлом году награду получил word2vec (пост), а в этом году она досталась GAN'у (Ян Гудфеллоу и Йошуа Бенджио) и Sequence to Sequence Learning (Илья Суцкевер).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36🔥10❤4
Siri теперь будет использовать модели OpenAI (прямо так и пишется, working with chatgpt). А еще на айфонах в Apple Intelligence будет доступно дополнительное расширение ChatGPT. Например, в Visual Intelligence в камере тоже будет непосредственный доступ к GPT-4o, можно будет показывать модельке видео в реальном времени.
Для маков тоже добавили расширение ChatGPT в настройках. Можно будет использовать writing tools почти в любом приложении, анализировать документы прямо внутри finder с ChatGPT и задавать по ним вопросы.
Неужели теперь от Siri будет толк?
Please open Telegram to view this post
VIEW IN TELEGRAM
👀55🔥19❤11👍5
Media is too big
VIEW IN TELEGRAM
Google наконец-то докрутили свою Gemini до вау-эффекта. Что там интересного:
⚪️ Новая экспериментальная модель Gemini 2.0 Flash. Работает быстрее своего предшественника Flash 1.5 и соображает лучше по большинству бенчмарков. Доступна всем уже сейчас. Также докручены агентные способности: понимание файлов, например.
⚪️ Realtime мультимодальный API. На вход принимает текст, голос и даже видео в онлайне! То есть с ней можно разговаривать и одновременно показывать экран устройства или мир вокруг с камеры. Задержка почти незаметна, отвечать тоже может голосом. При этом в любом режиме инпута доступны инструменты (поиск в интернете, интерпретатор кода). Тоже доступно бесплатно. Картинки на выход тоже может, но пока без редактирования.
⚪️ Функция Deep Research (вот она доступна только для Advanced юзеров). Это углубленный поиск в интернете на заданную тему. Перед тем, как идти в поиск, моделька составляет план и показывает его вам для правок. Потом идет и рыщет по ссылкам, находит новые источники, проверяет детали и через несколько минут выкатывает вам большой отчет. Ну супер же!
Google снова в гонке, получается🎉
Google снова в гонке, получается
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥108👍26❤7😁2🎉1
Тем временем соцсети уже переполнены кейсами применения нового Realtime API Gemini. А если хотите попробовать сами локально (напоминаем, это бесплатно) – то мы принесли вам код
1. Скачивайте файл отсюда
2. Запускаете pip install pyaudio websockets
3. Добавляете в строку GEMINI_API_KEY={TOKEN} свой токен
4. Вы великолепны и можете болтать с Gemini по видеосвязи
1. Скачивайте файл отсюда
2. Запускаете pip install pyaudio websockets
3. Добавляете в строку GEMINI_API_KEY={TOKEN} свой токен
4. Вы великолепны и можете болтать с Gemini по видеосвязи
🔥72👍17❤5🎉3🤔1🤪1
Что-то на шикарном: посмотрите, какие видео генерит Kandinsky 4.0 Video
Релиз представили буквально сегодня на конференции AI Journey. Нейросеть научилась делать очень качественные ролики с плавными переходами и сочной картинкой. Причем по любому описанию или стартовому кадру.
Реалистичность тоже оказалась на уровне. В публичный доступ выложат совсем скоро, в 2025 году, так что ждем и тестируем.
Релиз представили буквально сегодня на конференции AI Journey. Нейросеть научилась делать очень качественные ролики с плавными переходами и сочной картинкой. Причем по любому описанию или стартовому кадру.
Реалистичность тоже оказалась на уровне. В публичный доступ выложат совсем скоро, в 2025 году, так что ждем и тестируем.
🔥73😁28👍14🤨11🗿8❤4💅4🤪1