Please open Telegram to view this post
VIEW IN TELEGRAM
🤣12👨💻1
Полный список коннекторов, которые анонсировали в ChatGPT
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
❤12👍7
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и видео от OpenAI как подключить кастомный (свой) MCP в виде коннектора для ChatGPT Deep Search.
🔥15👍4❤2
И немного подробностей про record mode.
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
🔥17❤7👍4
Media is too big
VIEW IN TELEGRAM
Ура! Большой релиз Cursor версии 1.0
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
🔥13❤8👍3👾1
Forwarded from Zavtracast (Ярослав Ивус)
Nucleus представила услугу Embryo, которая позволяет узнать детальные характеристики ребёнка до рождения. Это выглядит, как выбор персонажа в игре.
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
🔥13❤3👍2 2
Новый Advanced Voice mode в ChatGPT
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
❤17 8👍4👾1
Google обновила Gemini 2.5 Pro (Preview)
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
🔥19
Media is too big
VIEW IN TELEGRAM
Elevenlabs выкатила text-to-speech модель Eleven v3 (alpha)
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
🔥43
Media is too big
VIEW IN TELEGRAM
AGI может и не случиться
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
👍14❤8👾2👨💻1
Наконец-то выкатили обновление Advanced Voice в ChatGPT
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.
1🔥37❤4
Сбой у OpenAI длится уже больше 7 часов.
Затронуло и API и ChatGPT. И это уже не первый такой глобальный сбой в этом году😭
Вайб: когда 30% кода в компании написано с помощью AI 😅
Затронуло и API и ChatGPT. И это уже не первый такой глобальный сбой в этом году
Вайб: когда 30% кода в компании написано с помощью AI 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
😭31 4
OpenAI выкатила o3-pro
Это самая мощная в своей линейке reasoning-моделей. Она уже доступна в ChatGPT Pro, Team и API.
Что умеет o3-pro:
— Лучше решает задачи по науке, коду, бизнесу и обучению
— Лучшая по всем метрикам по сравнению с o3
— Умеет использовать все инструменты: Python, файлы, веб, визуальный ввод
Цены в API:
— o3-pro: $20 за 1M токенов на вход, $80 — на выход
— обычную o3 удешевили на 80%: теперь $2 / $8 (на уровне GPT-4.1)
Теперь понятно, почему вчера у OpenAI всё лежало: катили нового монстра🐰
Это самая мощная в своей линейке reasoning-моделей. Она уже доступна в ChatGPT Pro, Team и API.
Что умеет o3-pro:
— Лучше решает задачи по науке, коду, бизнесу и обучению
— Лучшая по всем метрикам по сравнению с o3
— Умеет использовать все инструменты: Python, файлы, веб, визуальный ввод
Цены в API:
— o3-pro: $20 за 1M токенов на вход, $80 — на выход
— обычную o3 удешевили на 80%: теперь $2 / $8 (на уровне GPT-4.1)
Теперь понятно, почему вчера у OpenAI всё лежало: катили нового монстра
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16
OpenAI теперь и на Google Cloud
Кажется, конкуренция конкуренцией, а вычислительные мощности по расписанию (текущих от Microsoft не хватает, вчера снова был глобальный сбой). OpenAI договорились с Google и будут использовать их Google Cloud для своих моделей. Раньше вся нагрузка лежала на Microsoft, теперь мощности начали распределять.
Что известно:
– Сделку закрыли в мае
– Переговоры шли несколько месяцев (мешали условия с Microsoft)
– У OpenAI выросли запросы на обучение и запуск моделей, одной Azure уже мало
– Для Google это большая победа, особенно на фоне того, что ChatGPT “ест” их поисковик
– Параллельно OpenAI строят дата-центр Stargate и пилят собственные чипы, чтобы меньше зависеть от партнёров
Акции Google уже пошли вверх. И да, Google снова себя прекрасно ощущает и сумела выправить курс (Apple учись!).
Кажется, конкуренция конкуренцией, а вычислительные мощности по расписанию (текущих от Microsoft не хватает, вчера снова был глобальный сбой). OpenAI договорились с Google и будут использовать их Google Cloud для своих моделей. Раньше вся нагрузка лежала на Microsoft, теперь мощности начали распределять.
Что известно:
– Сделку закрыли в мае
– Переговоры шли несколько месяцев (мешали условия с Microsoft)
– У OpenAI выросли запросы на обучение и запуск моделей, одной Azure уже мало
– Для Google это большая победа, особенно на фоне того, что ChatGPT “ест” их поисковик
– Параллельно OpenAI строят дата-центр Stargate и пилят собственные чипы, чтобы меньше зависеть от партнёров
Акции Google уже пошли вверх. И да, Google снова себя прекрасно ощущает и сумела выправить курс (Apple учись!).
❤20🔥5👾1
Хватит хейтить Apple [никто и не хейтит] — давайте по делу. Что “эйайного” подвезли на WWDC
Начнём с XCode (обожаю его если честно). Xcode теперь с полноценной AI-интеграцией и теперь будет еще больше приложений в App Store от вайб-разработчиков (йеееха!):
– Встроенный ассистент: можно выбрать ChatGPT или подключить свою модель как облачную, так и локальную (через Ollama и LM Studio).
– Ассистент понимает контекст проекта, учитывает историю переписки, помогает писать, править, объяснять и документировать код.
– Генерирует фичи, меняет логику, предлагает улучшения, может создавать playground’ы и SwiftUI-превью для тестов.
– При ошибках предлагает исправления прямо в редакторе.
– Может автоматически добавлять комментарии к классам, методам и параметрам.
– Есть история взаимодействий: можно откатиться к любому предыдущему состоянию или восстановить нужный шаг. Работает поверх git (кайф же!).
– Поддержка кастомных моделей и ключей API: можно подключить свою модель через OpenAI или другого провайдера (например Claude от Anthropic).
– Судя по информации в сети, на бесплатном тарифе 20-25 запросов в день к ChatGPT (оф. данных не нашел). Поэтому только свой API ключ и сжигать деньги на вайбе.
Кайфовое обновелние для XCode? Определенно да, и оно мне нравится!
Детальнее можно почитать тут
Начнём с XCode (обожаю его если честно). Xcode теперь с полноценной AI-интеграцией и теперь будет еще больше приложений в App Store от вайб-разработчиков (йеееха!):
– Встроенный ассистент: можно выбрать ChatGPT или подключить свою модель как облачную, так и локальную (через Ollama и LM Studio).
– Ассистент понимает контекст проекта, учитывает историю переписки, помогает писать, править, объяснять и документировать код.
– Генерирует фичи, меняет логику, предлагает улучшения, может создавать playground’ы и SwiftUI-превью для тестов.
– При ошибках предлагает исправления прямо в редакторе.
– Может автоматически добавлять комментарии к классам, методам и параметрам.
– Есть история взаимодействий: можно откатиться к любому предыдущему состоянию или восстановить нужный шаг. Работает поверх git (кайф же!).
– Поддержка кастомных моделей и ключей API: можно подключить свою модель через OpenAI или другого провайдера (например Claude от Anthropic).
– Судя по информации в сети, на бесплатном тарифе 20-25 запросов в день к ChatGPT (оф. данных не нашел). Поэтому только свой API ключ и сжигать деньги на вайбе.
Кайфовое обновелние для XCode? Определенно да, и оно мне нравится!
Детальнее можно почитать тут
🔥18❤8 2🤣1
Foundation Models API от Apple
Apple выкатили API для Foundation Models (beta) для всех разработчиков. Наконец-то можно делать AI-приложения, только без геморроя с серверами и оплатой токенов. Всё работает прямо на устройстве. Давайте разбираться:
Что такое Foundation Models
– Это большая языковая модель, та же, что лежит в основе Apple Intelligence (Siri работает на её мощах), только теперь доступна через специальный API.
– Модель полностью крутится на устройстве, не уходит в облако, работает быстро и приватно (только на новых чипах — A17, M1 и выше).
– Никаких ключей, серверов и подписок. Всё для девелоперов бесплатно.
Что умеет
– Генерировать текст, писать и переписывать, делать резюме, отвечать на вопросы, вести диалоги — всё как у GPT, но у тебя в приложении.
– Есть “guided generation” — можно управлять стилем и форматом вывода (например, просить отвечать только списком или в стиле Твиттера).
– Tool calling: модель сама может вызывать функции твоего приложения, если не может что-то сделать (например, подсчитать что-то, перевести валюту, отправить письмо). Просто регистрируешь функции и модель их использует по ситуации.
– Всё через Swift в 2–3 строчки кода и можно получить генеративный ответ.
Как это интегрировать
– Импортируешь Foundation Models framework, создаёшь запрос к модели, получаешь результат.
– Можно использовать для любого NLP-сценария: персональный ассистент, креативщик, анализатор контента, чат-бот, генерация квизов, написание статей и т.д.
Почему это важно
– Все данные пользователя остаются на устройстве. Можно сделать реально приватное AI-приложение, не объясняясь ни с кем про GDPR.
– Нет лимитов и затрат, твоя генерация бесплатная, хочешь миллион токенов в день? Пожалуйста.
– Есть поддержка tool calling — теперь можно делать AI-агентов, которые реально что-то делают, а не просто болтают.
– Интеграция максимально простая: реально любой, кто писал на Swift, разберётся.
Ограничения и детали
– Работает только на новых устройствах (iPhone 15 Pro+, iPhone 16, все Mac на M1+).
– Название модели не раскрывают (видимо, что-то около 10–20B параметров, сжато для Neural Engine).
– Если чего-то не хватает, можно “звать” внешнюю модель через API (тот же ChatGPT), Apple не ограничивает.
Apple выкатили API для Foundation Models (beta) для всех разработчиков. Наконец-то можно делать AI-приложения, только без геморроя с серверами и оплатой токенов. Всё работает прямо на устройстве. Давайте разбираться:
Что такое Foundation Models
– Это большая языковая модель, та же, что лежит в основе Apple Intelligence (Siri работает на её мощах), только теперь доступна через специальный API.
– Модель полностью крутится на устройстве, не уходит в облако, работает быстро и приватно (только на новых чипах — A17, M1 и выше).
– Никаких ключей, серверов и подписок. Всё для девелоперов бесплатно.
Что умеет
– Генерировать текст, писать и переписывать, делать резюме, отвечать на вопросы, вести диалоги — всё как у GPT, но у тебя в приложении.
– Есть “guided generation” — можно управлять стилем и форматом вывода (например, просить отвечать только списком или в стиле Твиттера).
– Tool calling: модель сама может вызывать функции твоего приложения, если не может что-то сделать (например, подсчитать что-то, перевести валюту, отправить письмо). Просто регистрируешь функции и модель их использует по ситуации.
– Всё через Swift в 2–3 строчки кода и можно получить генеративный ответ.
Как это интегрировать
– Импортируешь Foundation Models framework, создаёшь запрос к модели, получаешь результат.
– Можно использовать для любого NLP-сценария: персональный ассистент, креативщик, анализатор контента, чат-бот, генерация квизов, написание статей и т.д.
Почему это важно
– Все данные пользователя остаются на устройстве. Можно сделать реально приватное AI-приложение, не объясняясь ни с кем про GDPR.
– Нет лимитов и затрат, твоя генерация бесплатная, хочешь миллион токенов в день? Пожалуйста.
– Есть поддержка tool calling — теперь можно делать AI-агентов, которые реально что-то делают, а не просто болтают.
– Интеграция максимально простая: реально любой, кто писал на Swift, разберётся.
Ограничения и детали
– Работает только на новых устройствах (iPhone 15 Pro+, iPhone 16, все Mac на M1+).
– Название модели не раскрывают (видимо, что-то около 10–20B параметров, сжато для Neural Engine).
– Если чего-то не хватает, можно “звать” внешнюю модель через API (тот же ChatGPT), Apple не ограничивает.
🔥21❤9👍4🤣1