Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
1288 - Telegram Web
Telegram Web
Ну и по классике 😋
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣12👨‍💻1
Полный список коннекторов, которые анонсировали в ChatGPT

Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.

Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.

Более подробно о коннекторах тут
12👍7
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и видео от OpenAI как подключить кастомный (свой) MCP в виде коннектора для ChatGPT Deep Search.
🔥15👍42
И немного подробностей про record mode.

Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.

Что происходит дальше:

— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.

Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.

Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).

Работает пока лучше всего на английском. Но поддерживает и другие языки.

Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
🔥177👍4
Media is too big
VIEW IN TELEGRAM
Ура! Большой релиз Cursor версии 1.0

Редактор получил крупное обновление:

BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.

Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.

Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.

MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.

Весь change log доступен тут

Выглядит супер! Бегом обновляться 🤩
🔥138👍3👾1
Forwarded from Zavtracast (Ярослав Ивус)
Nucleus представила услугу Embryo, которая позволяет узнать детальные характеристики ребёнка до рождения. Это выглядит, как выбор персонажа в игре.

Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.

Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.

Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.

@zavtracast
🔥133👍22
Новый Advanced Voice mode в ChatGPT

Засветилось обновление голосового режима в чатике.

- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).

Всё меньше и меньше ощущение, что говоришь с роботом.

Почему-то начало появляться в Андроид приложении 🤨
178👍4👾1
Google обновила Gemini 2.5 Pro (Preview)

На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.

– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)

Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)

Доступ: AI Studio, Vertex, Gemini App.
🔥19
Media is too big
VIEW IN TELEGRAM
Elevenlabs выкатила text-to-speech модель Eleven v3 (alpha)

Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!

В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!

Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
🔥43
Media is too big
VIEW IN TELEGRAM
AGI может и не случиться

Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.

ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.

Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
👍148👾2👨‍💻1
Наконец-то выкатили обновление Advanced Voice в ChatGPT

Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨

А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.

Кайф же! Еще больше кейсов для использования AVM.
1🔥374
Сбой у OpenAI длится уже больше 7 часов.

Затронуло и API и ChatGPT. И это уже не первый такой глобальный сбой в этом году 😭

Вайб: когда 30% кода в компании написано с помощью AI 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
😭314
OpenAI выкатила o3-pro

Это самая мощная в своей линейке reasoning-моделей. Она уже доступна в ChatGPT Pro, Team и API.

Что умеет o3-pro:

— Лучше решает задачи по науке, коду, бизнесу и обучению
— Лучшая по всем метрикам по сравнению с o3
— Умеет использовать все инструменты: Python, файлы, веб, визуальный ввод

Цены в API:

— o3-pro: $20 за 1M токенов на вход, $80 — на выход
— обычную o3 удешевили на 80%: теперь $2 / $8 (на уровне GPT-4.1)

Теперь понятно, почему вчера у OpenAI всё лежало: катили нового монстра 🐰
Please open Telegram to view this post
VIEW IN TELEGRAM
16
OpenAI теперь и на Google Cloud

Кажется, конкуренция конкуренцией, а вычислительные мощности по расписанию (текущих от Microsoft не хватает, вчера снова был глобальный сбой). OpenAI договорились с Google и будут использовать их Google Cloud для своих моделей. Раньше вся нагрузка лежала на Microsoft, теперь мощности начали распределять.

Что известно:

– Сделку закрыли в мае
– Переговоры шли несколько месяцев (мешали условия с Microsoft)
– У OpenAI выросли запросы на обучение и запуск моделей, одной Azure уже мало
– Для Google это большая победа, особенно на фоне того, что ChatGPT “ест” их поисковик
– Параллельно OpenAI строят дата-центр Stargate и пилят собственные чипы, чтобы меньше зависеть от партнёров

Акции Google уже пошли вверх. И да, Google снова себя прекрасно ощущает и сумела выправить курс (Apple учись!).
20🔥5👾1
Хватит хейтить Apple [никто и не хейтит] — давайте по делу. Что “эйайного” подвезли на WWDC

Начнём с XCode (обожаю его если честно). Xcode теперь с полноценной AI-интеграцией и теперь будет еще больше приложений в App Store от вайб-разработчиков (йеееха!):

– Встроенный ассистент: можно выбрать ChatGPT или подключить свою модель как облачную, так и локальную (через Ollama и LM Studio).
– Ассистент понимает контекст проекта, учитывает историю переписки, помогает писать, править, объяснять и документировать код.
– Генерирует фичи, меняет логику, предлагает улучшения, может создавать playground’ы и SwiftUI-превью для тестов.
– При ошибках предлагает исправления прямо в редакторе.
– Может автоматически добавлять комментарии к классам, методам и параметрам.
– Есть история взаимодействий: можно откатиться к любому предыдущему состоянию или восстановить нужный шаг. Работает поверх git (кайф же!).
– Поддержка кастомных моделей и ключей API: можно подключить свою модель через OpenAI или другого провайдера (например Claude от Anthropic).
– Судя по информации в сети, на бесплатном тарифе 20-25 запросов в день к ChatGPT (оф. данных не нашел). Поэтому только свой API ключ и сжигать деньги на вайбе.

Кайфовое обновелние для XCode? Определенно да, и оно мне нравится!

Детальнее можно почитать тут
🔥1882🤣1
Foundation Models API от Apple

Apple выкатили API для Foundation Models (beta) для всех разработчиков. Наконец-то можно делать AI-приложения, только без геморроя с серверами и оплатой токенов. Всё работает прямо на устройстве. Давайте разбираться:

Что такое Foundation Models
– Это большая языковая модель, та же, что лежит в основе Apple Intelligence (Siri работает на её мощах), только теперь доступна через специальный API.
– Модель полностью крутится на устройстве, не уходит в облако, работает быстро и приватно (только на новых чипах — A17, M1 и выше).
– Никаких ключей, серверов и подписок. Всё для девелоперов бесплатно.

Что умеет
– Генерировать текст, писать и переписывать, делать резюме, отвечать на вопросы, вести диалоги — всё как у GPT, но у тебя в приложении.
– Есть “guided generation” — можно управлять стилем и форматом вывода (например, просить отвечать только списком или в стиле Твиттера).
– Tool calling: модель сама может вызывать функции твоего приложения, если не может что-то сделать (например, подсчитать что-то, перевести валюту, отправить письмо). Просто регистрируешь функции и модель их использует по ситуации.
– Всё через Swift в 2–3 строчки кода и можно получить генеративный ответ.

Как это интегрировать
– Импортируешь Foundation Models framework, создаёшь запрос к модели, получаешь результат.
– Можно использовать для любого NLP-сценария: персональный ассистент, креативщик, анализатор контента, чат-бот, генерация квизов, написание статей и т.д.

Почему это важно
– Все данные пользователя остаются на устройстве. Можно сделать реально приватное AI-приложение, не объясняясь ни с кем про GDPR.
– Нет лимитов и затрат, твоя генерация бесплатная, хочешь миллион токенов в день? Пожалуйста.
– Есть поддержка tool calling — теперь можно делать AI-агентов, которые реально что-то делают, а не просто болтают.
– Интеграция максимально простая: реально любой, кто писал на Swift, разберётся.

Ограничения и детали
– Работает только на новых устройствах (iPhone 15 Pro+, iPhone 16, все Mac на M1+).
– Название модели не раскрывают (видимо, что-то около 10–20B параметров, сжато для Neural Engine).
– Если чего-то не хватает, можно “звать” внешнюю модель через API (тот же ChatGPT), Apple не ограничивает.
🔥219👍4🤣1
2025/07/14 00:40:37
Back to Top
HTML Embed Code: