Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
949 - Telegram Web
Telegram Web
Кажется, сегодня день релизов от OpenAI. В Твиттере оживились.

Сэм раздаёт разные намёки, в том числе что o3 круче 100х в разработке 😅

В общем, ожидаются o3 и o3-mini. А может пока только o3-mini. Stay tuned!

ИИволюция
🔥10🤣4👍1😢1
Твиттерские нашли упоминание вот такого окошечка в чатгпт, так что точно ждем релиза🥰

Пока o3-mini, а чуть позже и полноценную o3.

ИИволюция
👏8🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Загадка хитрого плана с нон-профит OpenAI раскрыта..

ИИволюция
1🤣47👍2🗿2🔥1
Та самая стена! ☺️

ИИволюция
🤣7
Вы точно готовы к такому? 😅

ИИволюция
🤣24
О, вчера в ChatGPT раскатали возможность (для европейских пользователей/впн) включать камеру в режиме Advanced Voice Mode. Это возможность была выпущена еще до НГ, но в Европе не была доступна.

Теперь чатик сможет видеть контекст с камеры и общаться с вами о нём. Налетайте!

ИИволюция
🔥18
OpenAI релизнули модель o3-mini

- Модель заточена под решением математических задач, для разработки кода и аналитики.

- В чатике доступно 2 версии: o3-mini (medium) и o3-mini-high. В режиме high поддерживается поиск в интернете, чтобы получать свежую информацию.

- Режим влияет на длительность размышлений (чем дольше, тем точнее и качественнее ответ).

- Модель уже доступна в API (не для всех) с тремя режимами: low, medium, high. Разработчики могут выбирать режим исходя из потребностей в ризонинге и времени на ответ (нужно быстро или можно подождать, но получить более качественный ответ).

- Вау фактор: o3-mini-high уделывает o1 в разработке. Судя по бенчмаркам, произошел значительный рывок в качестве. Прочитал мнение разных людей в твиттере, кто уже попробовал o3-mini-high в разработке и сравнили. Они в восторге!

- Приятное (ответочка китайцам): o3-mini доступна в бесплатных тарифах (но есть ограничение, вроде как 10 сообщений за несколько часов, хотя нигде об этом толком не пишут официально).

- В Plus тарифе лимит выше, 150 сообщений в сутки, в Pro за $200 безлимит.

- У модели нет зрения (vision).

- Очень приятное: цены в API по сравнению с o1-mini рухнули на 63%. Чем дальше прогресс, тем дешевле становится применение AI в различных областях, сервисах и задачах.

Почитать официальный релиз: тут

ИИволюция
🔥138👍1🗿1
Кажется пора сказать “Sonnet 3.5 – давай до свидания!”

o3-mini-high на LiveBench просто вырвалась далеко вперед и значительно опережает остальные модели в написании кода, набрав аж 82.74.

Ух!

ИИволюция
🔥161
- OpenAI выкатывает новую модель с доступом по API.
- Китай: challenge accepted!

Ждем DeepSeek R3 😅

ИИволюция
1🤣33🔥64👍2
Ух ты, Сэм что-то припас для нас. Думаю, что это Canvas для o3-mini, чтобы удобнее работать с кодом.

А вы что думаете?

ИИволюция
🔥14🤣21👍1
Media is too big
VIEW IN TELEGRAM
Доверяй, но проверяй и дипсикам не доверяй!

Парень конечно заморочился 😅

ИИволюция
🔥31🤣14
Forwarded from AbstractDL
С вас 200$. Спасибо.
1🤣55🗿11
o3-mini-high неожиданно в рамках текущего чата начала рассуждать на корейском. Хотя до этого все рассуждения в этом же чате были на английском.

Своего рода ответочка китайцам, чтобы запутать? 😆

ИИволюция
🤣18👏2
А вот сейчас было больно!

Я понимал, что лимиты для o3-mini-high на Plus есть и думал в рамках суток они как обычно, а они какие-то очень злые получается!?

Какие в итоге ограничения по кол-ву запросов то? Х запросов в неделю получается?

UPD: видимо 50 запросов в неделю. Так что расходуйте осторожней 🎩

ИИволюция
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣9👍2😢21
Forwarded from EDU (Bayram Annakov)
OpenAI Deep Research

Я выше писал про Gemini Deep Research, вот и ответ OpenAI с таким же названием o__O

Попробовал на той же задаче с конкурентным анализом + на задаче поиска subscription бизнесов, о которой также писал недавно - мои впечатления:
1) В Google мне понравилось, что перед стартом он показывает план ресерча и позволяет тебе скорректировать. OpenAI же этого не делает, но уточняет детали: а ля бизнесы в какой локации искать или по какому аспекту сравнивать конкурентов.
2) Я понимаю все про загрузку и тп, но у Google все работало гораздо быстрее и без ограничений а-ля "ваш ресерч поставлен в очередь"
3) Результат OpenAI мне очень понравился, вышло сильно глубже и качественнее, чем Gemini. Думаю, что это потому что он реально "прочитывает" страницы. Google наверняка берет из своего индекса. Правда, при экспорте в CSV он почему-то потерял 2/3 результатов по задаче с поиском бизнесов, ну это проблема уже не DeepResearch. Конечно, экспорт у Gemini сразу в Google Docs сильно удобнее
4) Gemini быстрее решал такие же задачи раза в 3-4, но, опять же, возможно из за пункта про "прочитывание".

В общем, это хорошо, но не вау имхо. Все это в той или иной степени уже было у конкурентов или open source; даже в o3-mini + web search можно было получить схожие результаты
👍11🔥72
Видимо сейчас начнут клепать франкинштейнов, типа — DeepClaude, который уже бьет мономодели на бенчмарках (картинка).

DeepClaude - это API для работы с языковыми моделями, который объединяет возможности двух различных моделей: DeepSeek R1 и Anthropic Claude.

Принцип работы:
1. DeepSeek R1 отвечает за логические рассуждения и решение сложных задач, используя так называемую "цепочку размышлений" (Chain of Thought)

2. Claude 3.5 Sonnet дополняет систему своими сильными сторонами - генерацией кода, креативностью и навыками ведения диалога
9🔥6👍3🤣1
Классный твит от Андрея Карпатого (в переводе на русский).

Сообщение Андрея:
“Есть новый стиль программирования, который я называю "вайб-кодинг" (vibe coding) — когда просто плывёшь по течению, смиряешься с экспоненциальным разрастанием кода и вообще забываешь, что он существует. Это возможно, потому что LLM'ы (например, Cursor Composer с Sonnet) уже слишком хороши.

Я почти не трогаю клавиатуру — просто разговариваю с Composer через SuperWhisper. Прошу его делать самые ленивые вещи, типа "уменьши паддинг у сайдбара в два раза", потому что мне лень искать, где это исправить. Всегда жму "Accept All", даже не смотрю диффы. Если появляются ошибки, просто копирую их обратно без комментариев — и обычно это почему-то помогает.

Код растёт сам по себе, я уже не совсем понимаю, как он устроен, и чтобы в нём разобраться, пришлось бы реально сесть и читать. Иногда LLM'ы не могут починить баг, тогда я либо просто обхожу его, либо прошу случайные изменения, пока он каким-то образом не исчезнет.

Для одноразовых проектов на выходных это не так уж и плохо, но всё равно довольно забавно. Сейчас я делаю какой-то проект или веб-приложение, но это уже даже не совсем программирование — я просто смотрю на код, говорю, что надо сделать, запускаю, копирую какие-то куски, вставляю другие, и в целом всё работает.”


И вот теперь я однозначно могу сказать, что это супер подход для запуска MVP. Ты просто на вайбе фигачишь что-то и оно работает. А если не работает, то просто говоришь: “Оно не работает и нейросеть пытается починить”. Пофиг на качество кода на старте, мы на вайбе пилим стартапы!

ИИволюция
👍39🔥10🤣4😢21
2025/07/08 15:28:29
Back to Top
HTML Embed Code: