Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
5681 - Telegram Web
Telegram Web
Media is too big
VIEW IN TELEGRAM
⚡️ Google выпустили Willow – первый в мире квантовый чип, который показывает экспоненциальную способность к масштабированию вычислений

Впервые в истории у кого-то получилось создать логические кубиты, которые перформят ниже границы Quantum Error Correction. Это метод, при котором данные сохраняются путем распределения информации по нескольким кубитам. Дело в том, что обычно ошибки вычислений – ключевая проблема квантовых машин. Кубиты слишком быстро обмениваются информацией и имеют тенденцию терять ее. Обычно чем больше кубитов вы используете, тем больше ошибок возникает, и квантовая система вырождается в классическую. Но в Willow все наоборот: с ростом кубитов ошибки уменьшаются экспоненциально. Это поразительный результат, которого люди пытались добиться последние 30 лет.

А теперь приготовьтесь: Willow в септилион раз быстрее классического вычислительного чипа. То есть Willow может за 300 секунд решить задачу, на которую у обычного чипа бы ушло 10,000,000,000,000,000,000,000,000 лет (и это было доказано во время тестов).

А еще у чипа рекордное количество кубитов – 105. Конечно, это все еще мало (например, чтобы взломать биткоин, потребуется где-то 300-400 миллионов кубитов), но по сравнению с предыдущими квантовыми компьютерами – вау.

Блогпост Google
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉178🔥36👍268🤔7👏5😁3🤨2
Media is too big
VIEW IN TELEGRAM
Еще у Google в дополнение к блогпосту вышло интересное короткое видео про историю квантовых вычислений и Willow. Основная мысль:

Первый свой квантовый чип Google выпустили в 2019. С того момента классические вычисления усовершенствовались в миллиарды раз. Но если классические вычисления растут по закону Мура, то квантовые растут и будут расти по закону Невена, а именно с двойной экспоненциальной скоростью относительно своих классических соперников.

Этот закон, к слову, придуман Хартмутом Невеном, который сейчас является директором лаборатории квантового искусственного интеллекта Google. В интервью в честь выхода Willow он говорит, что квантовые вычисления и ИИ будут взаимодополнять друг друга: ИИ может улучшить квантовые чипы, а квантовые компьютеры сделают ИИ мощнее.

А еще, кстати, Google опубликовали статью про Willow в Nature. Прочитать можно тут: www.nature.com/articles/s41586-024-08449-y
🔥41👍116
Tesla поделились в X забавным видео, как Optimus гуляет по лесу

Пародия / Оригинал ⬆️
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁81👍9🔥8🤯3
EpochAI запустили собственную арену для сравнения LLM

Это те самые ребята, которые постоянно делают крутые исследования (пост со списком их самых интересных ресерчей), а недавно катнули крутой математический бенчмарк (пост об этом).

Включать обещают только новые сложные бенчмарки, как раз такие как FrontierMath и SWE-Bench-Verified. Пока что доступны GPQA Diamond и MATH Level 5. А еще будет визуализация, открытые данные, анализы скорости и стоимостей.

Здорово, что появляется все больше таких платформ: так оценки становятся более независимыми и сложными.
🔥35👌104👍4
На бенчмарке MERA опубликовали модель, которую обходит только GPT-4о

На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные поставили елку 🎄

Теперь гадаем, кто это сделал
🎄11324🤯12🤨3🔥2🤪2
Data Secrets
Вахид Каземи – PhD, сотрудник OpenAI и бывший сотрудник Apple и Google: По моему мнению мы уже достигли AGI, с o1 это очевидно. Возможно, мы еще не добрались до «лучше, чем любой человек в любой задаче», но то, что у нас есть, это уже «лучше, чем большинство…
Зацените уровень пасхалок: в офисе Anthropic хранится йодаргирит, химическая формула которого – AgI 🧐

Информацией, кстати, поделился один из разработчиков стартапа в ответ на тот самый «мы уже достигли AGI» твит ресерчера OpenAI. «Мы тоже уже достигли AgI и держим его за стеклом» – иронично написал он.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁111🔥16🤯11🕊61
4 день стримов OpenAI из 12: сегодня показали интерпретатор кода и еще несколько очень кайфовых фич для Canvas

Теперь код можно запускать прямо внутри бота с помощью кнопки Run. При этом GPT видит все трейсы интерпретатора и может писать комментарии прямо в них. Можно даже рисовать графики, и работает это достаточно быстро! Просто идеально для дебаггинга и рефакторинга.

Кроме того, теперь Canvas будет доступен для всех, а еще его можно будет встроить в собственные GPTs: делается это очень просто через настройки конфигураций.

Напоминаем, что Canvas – это отдельное окно рядом с чатом. Инструмент предназначен для задач, где нужно много править или пересматривать один и тот же проект (код или работа с текстом). Он, в отличие от чата, лучше запоминает контекст + работает над конкретными разделами или даже строками (подробнее в этом нашем посте).

В дополнение ко всему, для комментирования текста и кода теперь использовать инструмент будет еще удобнее: бот выделяет кусочки прямо в ваших запросах и записывает комментарии справа от них (похоже на умные заметки в стиле Google Docs).

Ссылка на стрим
38👍155
Data Secrets
С вас 200 долларов
С вас 200 долларов v2
😁372🔥38🌚16👍83👏3🤯3🦄1
Media is too big
VIEW IN TELEGRAM
Помните Model Context Protocol от Anthropic?

Это открытый протокол, который позволяет интегрировать любую LLM в любой источник данных. С помощью MCP клиенты (то есть LLM или другие ИИ-инструменты) могут подсоединяться к любому совместимому серверу (то есть приложению или другому источнику данных). Побробности – в этом нашем посте.

Так вот, MCP вызвал настолько широкий и позитивный отклик а сообществе, что стартап даже решил провести хакатон именно на основе этой технологии. Он прошел на выходных: всего за 3 часа участникам нужно было выдать какую-то интересную идею применения MCP и воплотить ее. Вот победители:

– Приз зрительских симпатий: Santa Claude – сервис для автоматического серчинга новогодних подарков и их заказа с amazon.

– Productivity award: Clauduct Manager – ИИ-продакт, который создает, сортирует и пишет таски и тикеты в Linear.

– Code award: Claude Voyager – соединение клода с окружением, в котором он может полностью автономно управлять проектом.

Все эти проекты кажутся привычными. Но их смысл в том, что это НЕ кастомные решения по интеграции модельки в сервис, а реализованные всего за пару часов идеи применения готового протокола, и это очень круто. Если хотите попробовать поиграть с MCP сами, то наверху мы прикрепили краткий видео-гайд из Твиттера с объяснением того, как это сделать
👍42🔥1311
Data Secrets
На бенчмарке MERA опубликовали модель, которую обходит только GPT-4о На ключевом русскоязычном ИИ-бенчмарке MERA второе место теперь занимает новая модель, которая обходит все русскоязычные модели в мире и уступает только GPT-4о. Вместо названия модели неизвестные…
Тайна елочки на бечмарке раскрыта: это новые мощные модели от Т-Технологий, куда входит Т-Банк

В релиз вошли две языковые модели – новая T-Pro на 32B параметров и обновленная T-Lite на 7В. Обе стали SOTA русского языка среди открытых моделей на индустриальных бенчмарках (MERA, ruMMLU, Ru Arena Hard, MT Bench и AlpacaEval).

Под капотом обеих моделей Qwen-2.5, который дообучали с помощью Continual Pretraining. Это чтобы модель прокачалась на русском, но не забыла свои базовые навыки и не просела на метриках, как это часто бывает. К тому же, такой подход на 80-90% сокращает косты.

Интересно, что это именно узконаправленные открытые модели. То есть, в отличие от универсального ChatGPT, они специализируются на решении конкретных задач. Соответственно, у них отдельно прокачан уровень доменных знаний и умение выполнять практические задачи бизнеса. Получается, теперь все могут абсолютно бесплатно брать T-Pro и T-Lite и идти прикручивать их к своим голосовым помощникам, агентам поддержки и пр. Б – буст!

Веса уже лежат на HuggingFace
🎄64👍287❤‍🔥5😐2🤝2👀1🤪1
В Meta показали метод Coconut, который позволяет моделям строить цепочки ризонинга не на ествественном языке, а в латентном пространстве

Забавное название Coconut – это сокращение от Chain of Continuous Thought. В целом, это та же цепочка мыслей, просто не на естественном языке, а внутри скрытого слоя. Конкретнее: в CoT для ризонинга шаг за шагом в инпут модели добавляются сами токены аутпута один за одним, а в работе Meta вместо токенов используются недекодированные эмбеддинги с последнего слоя.

Это немного похоже на недавнюю работу Microsoft (разбор мы делали здесь), за исключением того, что там рассматривались агентские системы, а тут модель вместо других экземпляров общается как бы сама с собой.

Результаты получились неоднозначные: например, на GSM8k Coconut выбил 34,1%, когда как ванильный CoT достиг 42,9%. Но вот на бенчмарке логических рассуждений ProntoQA разрыв был на 1пп уже в пользу Coconut, а на ProsQA метод показал себя лучше СoT аж на 20пп! Ну и плюсом ко всему Coconut, естественно, быстрее.

Статья полностью тут
👍34🔥139😁3
⚫️ Объявлены результаты NeurIPS 2024 Best Paper Awards

Best Paper Awards – вообще очень престижная награда, тем более на NeurIPS, которая считается лучшей ML-конференцией в мире. Вот кто получил награду в этот раз:

➡️ Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction. Статья про новую авторегрессионную вижн модель. В отличие от классических авторегрессий, тут прогнозируется не следующий токен, а следующий скейл. Так авторегрессия становится больше похожа на диффузию: такой алгоритм на каждом шаге прогнозирования тоже как бы добавляет все более и более мелкие детали к изображению.

Вы, кстати, удивитесь, но один из авторов этой статьи – тот самый стажер, который два месяца вставлял палки в колеса соседней команды, загружая порченные Pickle-файлы, полные вредоносного кода, удаляя чекпоинты, специально добавляя баги в корпоративный форк PyTorch и тд. Бывает же.

➡️Stochastic Taylor Derivative Estimator: Efficient amortization for arbitrary differential operators. В этой статье предлагается метод стохастической оценки производной Тейлора, который позволяет ускорить обучения нейросетей в случае, если используются производные высокого порядка. До этого предлагались только методы, которые понижали сложность либо относительно порядка производной, либо относительно размерности вектора, но при этом один из аспектов всегда страдал. Здесь же предложен более общий подход, оптимизирующий и то, и то.

➡️ В номенации "Datasets & Benchmarks" победила статья The PRISM Alignment Dataset про самый большой в мире открытый датасет человеческих предпочтений. Особая ценность в том, что датасет мультикультурный: представлены данные из 75 стран и от людей с совершенно разными демографическими фичами.

Немного раньше, в конце ноября, также объявляли победителей премии Test of Time Paper Awards NeurIPS 2024. Эта награда выдается старым статьям, которые прошли испытание временем. В прошлом году награду получил word2vec (пост), а в этом году она досталась GAN'у (Ян Гудфеллоу и Йошуа Бенджио) и Sequence to Sequence Learning (Илья Суцкевер).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36🔥104
⚙️ 5 день стримов OpenAI из 12: сегодня рассказали про интеграцию ChatGPT в устройства Apple

Siri теперь будет использовать модели OpenAI (прямо так и пишется, working with chatgpt). А еще на айфонах в Apple Intelligence будет доступно дополнительное расширение ChatGPT. Например, в Visual Intelligence в камере тоже будет непосредственный доступ к GPT-4o, можно будет показывать модельке видео в реальном времени.

Для маков тоже добавили расширение ChatGPT в настройках. Можно будет использовать writing tools почти в любом приложении, анализировать документы прямо внутри finder с ChatGPT и задавать по ним вопросы.

Неужели теперь от Siri будет толк?
Please open Telegram to view this post
VIEW IN TELEGRAM
👀55🔥1911👍5
Media is too big
VIEW IN TELEGRAM
Google наконец-то докрутили свою Gemini до вау-эффекта. Что там интересного:

⚪️ Новая экспериментальная модель Gemini 2.0 Flash. Работает быстрее своего предшественника Flash 1.5 и соображает лучше по большинству бенчмарков. Доступна всем уже сейчас. Также докручены агентные способности: понимание файлов, например.

⚪️ Realtime мультимодальный API. На вход принимает текст, голос и даже видео в онлайне! То есть с ней можно разговаривать и одновременно показывать экран устройства или мир вокруг с камеры. Задержка почти незаметна, отвечать тоже может голосом. При этом в любом режиме инпута доступны инструменты (поиск в интернете, интерпретатор кода). Тоже доступно бесплатно. Картинки на выход тоже может, но пока без редактирования.

⚪️ Функция Deep Research (вот она доступна только для Advanced юзеров). Это углубленный поиск в интернете на заданную тему. Перед тем, как идти в поиск, моделька составляет план и показывает его вам для правок. Потом идет и рыщет по ссылкам, находит новые источники, проверяет детали и через несколько минут выкатывает вам большой отчет. Ну супер же!

Google снова в гонке, получается 🎉
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥108👍267😁2🎉1
Заказчик, объясняющий свою гениальную идею ИИ-приложения VS ML-инженер
😁161👍97🤯3👾21
Тем временем соцсети уже переполнены кейсами применения нового Realtime API Gemini. А если хотите попробовать сами локально (напоминаем, это бесплатно) – то мы принесли вам код

1. Скачивайте файл отсюда
2. Запускаете pip install pyaudio websockets
3. Добавляете в строку GEMINI_API_KEY={TOKEN} свой токен
4. Вы великолепны и можете болтать с Gemini по видеосвязи
🔥72👍175🎉3🤔1🤪1
Что-то на шикарном: посмотрите, какие видео генерит Kandinsky 4.0 Video

Релиз представили буквально сегодня на конференции AI Journey. Нейросеть научилась делать очень качественные ролики с плавными переходами и сочной картинкой. Причем по любому описанию или стартовому кадру.

Реалистичность тоже оказалась на уровне. В публичный доступ выложат совсем скоро, в 2025 году, так что ждем и тестируем.
🔥73😁28👍14🤨11🗿84💅4🤪1
2025/07/10 17:58:28
Back to Top
HTML Embed Code: