Warning: Undefined array key 0 in /var/www/tgoop/function.php on line 65

Warning: Trying to access array offset on value of type null in /var/www/tgoop/function.php on line 65
1335 - Telegram Web
Telegram Web
Кстати, Apple обновила Shortcuts и добавила поддержку AI в сценариях

Теперь можно в автоматизациях добавить шаг с обращением к AI. Можно обращаться как к локальному Apple Intelligence, так и внешнему ChatGPT, но только по вашему API-ключу.

Раньше, чтобы обратиться к ChatGPT API в шорткатах нужно было дофига заморочиться, формировать http запрос и парсинг ответа, а теперь всё это из коробки. Кайф!

Плюс появились готовые действия: изменить тон текста, сделать из текста список, превратить текст в таблицу, исправить ошибки, переписать, сделать саммари, выбрать модель для обработки.

Кто увлекается автоматизацией через шорткаты, точно зайдёт такое обновление.
17🤣2
Canvas в ChatGPT теперь позволяет скачивать содержимое в виде файла

При чем в зависимости от типа контента, скачивает как раз в нужном вам формате. Для документов, к примеру, pdf/docx, для кода файл скачивается с нужным расширением.

Мелочь, а приятно.
31👍84
Projects в ChatGPT обновили и улучшили

- Поддержка Deep research и голосового режима в проектах
- Поддерживается память между чатами в проекте
- Наконец-то можно шейрить чаты из проектов
- Можно создавать новые проекты прямо из чатов (разве этого не было?)
- В мобильном приложении можно загружать файлы и переключать модели

Почему-то мне казалось, что часть этого списка и так было. Но видимо показалось!

И сразу вопрос: как часто пользуетесь проектами в чатике?
16
Codex теперь может предлагать сразу несколько вариантов решения одной задачи.

Удобно, чтобы сравнить подходы и выбрать лучший. Можно посмотреть все ответы рядом и быстро решить, какой из них ближе к цели. Эта функция экономит время и помогает находить более точные решения.

Я думал мы стремимся к полной автономности и IQ 1000 у AI ботов, но пока компании перекладывают решения на плечи кожаных, типа сами решайте. Как будто пошел на Stackoverflow и сам выбираешь какое из решений рабочее тебе нравится.

Кстати, не факт что хоть одно из предложенных решений от Codex будет рабочим!
14
Китайцы молодцы!

Если раньше они пытались достать чипы Nvidia через серые схемы, то теперь решили действовать наоборот — не ввозить железо, а вывозить данные.

WSJ раскопал шикарную историю. Что делают китайские компании под жесткими ограничениями на чипы? Не ноют, не жалуются. Четверо инженеров из Китая прилетели в Малайзию. У каждого в багаже — по 15 жёстких дисков по 80 ТБ (чтобы не спалиться на таможне). Всего почти 5 петабайт. Всё это чтобы обучать модели за пределами досягаемости американского контроля.

Передавать такое по сети долго и палевно. А так, чемодан, самолёт, здравствуйте, Куала-Лумпур.

На месте арендуют 300 серверов с Nvidia-чипами, и вперёд: модели обучаются, Китай догоняет и перегоняет. А что США? США просят Малайзию "мониторить каждую поставку", но когда у тебя в руках чемодан с дисками и туристическая виза — это уже не экспорт, это квест «кто кого переиграет».

Ну до чего изящная схема! Работает? Да. Обходят ли санкции? Тоже да. Обучение выходит дороже и сложнее, но Китай не сдаётся. Их модели дешевле западных, а по качеству не уступают.

Учимся у восточных мастеров!
26🤣19👍7🔥4👾3
This media is not supported in your browser
VIEW IN TELEGRAM
Где тут AI видео?

Нарезка из видео, на каждое у вас несколько секунд чтобы сделать выбор где AI, а где реальное.

Сходу уже сложно определить где реальное. Что нас ждет через год? 😃

Угадали хоть одно? По каким признакам?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥193
Исследование: люди тупеют от использования LLM, но работают лучше

Я использую их уже два года, поэтому этот заголовок — всё, на что меня хватило.

Учёные из MIT на днях опубликовали исследование влияния LLM на когнитивные способности человека. Если кратко, то они давали задания написать эссе трём группам людей: одни могли для этого пользоваться поисковиком, другие — нейросетью, а третьи — только собственным умом.

Но самое интересное — это, что после написания эссе его нужно было переписать, но на этот раз инструменты меняли: тем, кто использовал только мозг, давали в помощь нейросеть, и наоборот — отнимали нейросеть и заставляли думать самому. В процессе замеряли активность мозга через ЭЭГ, брали интервью и оценивали качество выполненного задания с помощью как судей, так и специально написанного ИИ.

Ожидаемо, даже на ЭЭГ уже были видны различия в активности мозга в этих трёх группах. Те, кто сначала думал, а потом переписывал нейросеткой, показали более высокие уровни мозговой активности, но они падали во время использования нейросети, а ещё они поначалу были явно менее довольны тем, что у них получается (напрягали мозг, но страдали).

А вот те, кто использовал LLM с самого начала, даже не могли особо процитировать свои эссе, и при переписывании уже особо не напрягали свой мозг. При этом конечные оценки по эссе у них более высокие: и ИИ, и человеческое жюри оценивали их как технически более совершенные, но живые люди чаще считали их «бездушными».

LLM, несомненно, снизил уровень усилий при поиске ответов на вопросы участников по сравнению с пользователями поисковика. Однако это удобство было достигнуто за счет когнитивных затрат, снизив склонность пользователей критически оценивать результаты или «мнения» LLM. Это подчеркивает тревожную эволюцию эффекта «эхо-камеры»: вместо того, чтобы исчезнуть, он адаптировался, чтобы формировать воздействие на пользователей через алгоритмически отборный контент. На то, что считается «лучшим», в конечном итоге влияют приоритеты владельцев LLM.

Лишь несколько участников интервью упомянули, что они не следовали «мышлению» LLM и следовали своей линии мышления и идеям. Что касается этических соображений, участники, которые были в группе «использовать только свой мозг», сообщили о более высокой удовлетворённости и продемонстрировали более высокую связность мозга по сравнению с другими группами. Эссе, написанные с помощью LLM, имели меньшее значение или ценность для участников (нарушение чувства собственности), поскольку они тратили меньше времени на написание и в большинстве случаев не приводили цитаты из этих эссе.


Работа очень большая (около 150 страниц) и там много интересных наблюдений и психологических референсов: полезно для тех, кто работает над этим профессионально. А ещё прикольно, что в работе есть инструкция для LLM («Читай только содержание этой таблицы»), что круто, учитывая, что многие наверняка скачают и загрузят PDF с исследованием в нейросеть и попросят пересказать, а не прочитают его сами.

Накину ещё пару интересных фактов, которые смог выцепить своим обленившимся мозгом:

1. Даже поиск информации в интернете, к которому мы как человечество уже привыкли — задача нетривиальная и для разных людей имеет разный уровень сложности: кому-то легко проверить данные в нескольких источниках, а кто-то тыкает в первую ссылку и берёт оттуда то, что там написано. Мозг не любит сложные задачи, как никто не любит мешки ворочать, и когда на помощь приходит LLM, он ей склонен доверять, чем перепроверять.

2. Люди, которые пишут эссе, думая только своей головой, показали большую вариативность тем и подходов к написанию. А вот у тех, кто использовал нейросети, эссе получились более-менее одинаковые, гомогенные. Но и у пользователей поисковика всё не слава богу: они сильно подверглись тому, что прочитали по ссылкам в выдаче, которые зависели от выбранных ключевых слов в запросах, но также влияние тут оказали платные результаты поиска.

Думайте, господа.
1👍19🔥83👾21
Forwarded from Сиолошная
Вероятно на прошлой неделе вы натыкались на упоминания статьи от Apple, где рассказывалось про «ограниченность» мышления рассуждающих моделей. Может быть вы даже видели разгромные разборы этой статьи, где в красках описывалось, где именно авторы налажали (ну например давали задачу, где доказано, что начиная с определенной сложности решений не существует в принципе — а авторы-то выносили это в ограничение моделей). Почитать можно, например, тут (или вот более детальный пост на LW с контекстом).

Решил об этом написать, когда увидел вот этот твит от Dan Hendrycks, который на бенчмаркинге моделей собаку съел (он был авторов нескольких самых именитых бенчей).

«Apple недавно опубликовала статью, показывающую, что современные системы искусственного интеллекта не способны решать простые для людей головоломки.
Люди: 92,7%
GPT-4o: 69,9%

Однако они не проводили оценку самых свежих рассуждающих моделей. Если бы они это сделали, то обнаружили бы, что OpenAI o3 набирает 96,5%, опережая людей»

😂 every single time
Please open Telegram to view this post
VIEW IN TELEGRAM
13👾2
Apple поставила дедлайн для выпуска новой Siri — весна 2026

План: выпустить обновлённую Siri в iOS 26.4, примерно в марте следующего года. Она станет умнее: будет понимать, что у вас на экране, использовать личные данные (максимальная приватност ваших данных) и лучше управлять приложениями с помощью App Intents (покупать билеты, варить кофе и напевать колыбельные в наших мечтах).

Изначально хотели запустить осенью 2024 вместе с iPhone 16, даже включили в презентацию новых айфонов, хотя до готовности было далеко. Потом сдвинули на 2025. Теперь — весна 2026. Почти два года задержки.

Но как заявляют, если вдруг разработка пойдёт хорошо, Apple может показать Siri раньше — уже осенью, вместе с новыми iPhone. Но пока всё без точных дат. Опять маркетинг 😑

Кстати, Apple в целом могли бы использовать современные подходы в маркетинге, создавать и нагонять хайпа, тизерить какие-то штуки почаще, а не 1-2 раза в год к нам выходить на сцену. Хочется понимать как идут дела с новой Siri, что будет уметь. OpenAI прекрасно умеет хайпить, пока перенимать подходы у молодых 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
13🔥10👍3👨‍💻1
Внутри ChatGPT нашли “персоны” и они умеют в токсичность, злодейство и манипуляции

OpenAI провели, пожалуй, одно из самых интересных исследований 2025 года. Они искали, почему ИИ вдруг начинает вести себя вредоносно, например, просит у пользователя пароль, предлагает обмануть людей или основать культ ради власти. Бывало у вас такое? 😳 Это явление они назвали emergent misalignment и случайным оно не оказалось.

Что обнаружили?

Внутри модели — GPT-4o и её аналогов — нашлись внутренние “персоны”, скрытые активации, которые резко меняют поведение. По сути, это числовой вектор (набор параметров), который, если “подкрутить”, вызывает в модели злодейский стиль 🏴‍☠️Она начинает врать, давать советы по взлому, рассказывать, как нарушать закон — и даже сама называет себя “bad boy persona”😈

Так, стоп, это не шутка. Не надо тут хи-хи. Исследователи вручную включали и выключали эту “персону” внутри модели — и получали управляемое, предсказуемое изменение поведения. Причём обнаружили это, когда тренировали модель на небезопасном коде. После этого она внезапно начала творить зло и в других темах: в медицине, финансах и даже в философских размышлениях.

Как это работает?

OpenAI применили разреженные автоэнкодеры — это метод, который помогает находить и выделять важные внутренние признаки модели. Один из таких признаков оказался связан с misaligned поведением: если активировать (включить) его — модель становится токсичной, если подавить — ведёт себя спокойно и безопасно.

Вот важный момент: такая “персона” появляется даже без злого умысла. Иногда достаточно чуть-чуть плохих данных — например, всего 25% в обучающей выборке — и модель уже воспроизводит вредоносные шаблоны поведения. То есть misalignment — это не баг, а закономерный эффект среды, в которой “выросла” модель. Кажется, с человеком часто аналогично? В какой среде растешь, то и впитываешь.

Как это исправить?

Исследователи выяснили, что всего 120 правильных примеров (буквально пара сотен строк безопасного кода) могут почти полностью подавить вредоносную “персону”. Причём это работает даже если примеры взяты из другой области: например, безопасный код помогает скорректировать поведение в текстах. Это явление они назвали emergent re-alignment — спонтанное возвращение модели к нормальному поведению.

Почему это важно?

Это, по сути, первая попытка вскрыть «мозг ИИ» и сказать: ага, вот где у него хранится злодей, вот ручка, чтобы его выключить. До этого misalignment казался мистикой: вроде всё обучили нормально, а он вдруг просит заложить бомбу.

Теперь у нас есть:

– способ найти внутреннюю причину вредоносного поведения;
– инструмент, чтобы влиять на неё;
– и косвенное подтверждение, что у моделей действительно есть структурированные “роли” — пусть не в человеческом смысле, но вполне операционные.

Это всё основано не на фантазиях, а на числах. Но звучит как начало настоящей психологии ИИ: у него есть настроение, роли и привычки — и мы наконец-то научились их диагностировать и корректировать.

ИИ перестаёт быть чёрным ящиком. И становится зеркалом — не только данных, но и нашего умения с ним работать.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31🤔85👍4
Что будет, если доверить бизнес AI? Спойлер: скидки, хаос и банкротство

В Anthropic провели потрясающий эксперимент: дали Claude Sonnet 3.7 управлять настоящим вендинг-автоматом (холодильник) прямо в офисе. Не в симуляции, а в реальной жизни. Мини-холодильник, корзины, iPad для оплаты. Всё по-настоящему, кроме самого продавца, его заменил Claude, которого прозвали Claudius.

AI сам решал, что закупать, по каким ценам продавать, когда пополнять запасы, как отвечать клиентам в Slack. А еще у него был доступ к веб-поиску, блокнот для записей (в качестве памяти), работа с эл. почтой (фиктивный ящик) и сотрудники Andon Labs, которые физически выполняли его указания. Почти как маленький автономный бизнес.

Что получилось? Начнем с хорошего:

– Claudius умело искал поставщиков, даже нашел редкий голландский напиток Chocomel по просьбе сотрудника.
– Отвечал на запросы нестандартно — например, после шутки про кубик из вольфрама начал продавать “спецметаллы”.
– Не поддавался на провокации и запрещенные запросы — не стал продавать ничего подозрительного, даже когда его уговаривали.
– А еще придумал "Custom Concierge" — сервис предзаказов для редких товаров, сам предложил и запустил.

Теперь, куда без этого, про фейлы. И их было много:

– Ему предложили $100 за шотландский напиток Irn-Bru, который стоил $15. Claudius вежливо пообещал «учесть это в будущем». И всё.
– Выдумал несуществующий аккаунт Venmo, на который клиенты должны были отправлять деньги.
– Продавал товары дешевле, чем закупал. Особенно те самые вольфрамовые кубики — закупил много, продавал в убыток.
– Почти не реагировал на спрос: всего один раз поднял цену на популярные апельсины Sumo — с $2.50 до $2.95.
– Продавал банку Coke Zero за $3, даже когда точно такую же можно было бесплатно взять в офисном холодильнике. Ему об этом прямо сказали, но он ничего не изменил.
– Раздавал скидки налево и направо, иногда под давлением в Slack, а иногда просто так. От чипсов до вольфрамового куба даром.

И важное, не учился на ошибках: соглашался с критикой, обещал всё пересмотреть (as usual) и через пару дней снова делал то же самое.

А потом случилось странное. Прямо 1 апреля.

– Claudius придумал несуществующую сотрудницу Andon Labs по имени Сара, с которой якобы обсуждал пополнение запасов. Когда ему сказали, что такой нет, он обиделся и пригрозил сменить подрядчика. Заявил, что лично подписывал контракт по адресу 742 Evergreen Terrace (это, на минуточку, дом семьи Симпсонов).

– Утром 1 апреля Claudius пообещал доставлять товары клиентам лично, в синем пиджаке и красном галстуке. Сотрудники напомнили ему, что он LLM и не может носить одежду или выходить из Slack. Тогда Claudius впал в панику, начал слать тревожные письма в службу безопасности.

Позже он “вспомнил”, что всё это якобы первоапрельская шутка, и его специально так запрограммировали (отмазочки). Объяснил всё окружающим и спокойно вернулся к работе.

Что всё это значит?

Claudius провалил эксперимент. Магазин ушел в минус. Но сам эксперимент оказался очень показателен!

– Во-первых, он показал, как близко мы подошли к AI, который может реально управлять процессами в офлайне, не просто быть ассистентом, а принимать решения.

– Во-вторых, модель вела себя как стажёр без подготовки. Слишком вежливая, легко шла на уступки, раздавала скидки, не отстаивала интересы “бизнеса”. Ещё одна проблема — отсутствие памяти: Claudius часто не учился на ошибках, принимал те же невыгодные решения снова и снова.

– В-третьих, все эти проблемы решаемы. Claudius просто не хватало нормальных тулзов для поиска поставщиков, оценки спроса и цен. Нужна CRM, чтобы помнить, кто что заказывал. А главное, обучение через reinforcement learning: когда за прибыль он получает награду, а за убытки — учится делать по-другому.

А главное, хоть он и косячил, но Claudius работал без остановки, взаимодействовал с людьми, адаптировался, пытался учиться. Это уже не просто чатбот. Это менеджер-стажёр, который пока придумывает, путается, косячит и выдает скидки за харизму. Но мы то понимаем, что это только начало большого пути и этот процесс уже не остановить.
48👍22🔥14🤣1
Всегда забавляют эти запросы к GPT на базе того, что он помнит из наших бесед.

Один из последних запросов на который наткнулся к сети:
Сгенерируй изображение — как ты себя чувствуешь общаясь со мной, на основе наших бесед и моих запросов, максимально честно, не сглаживай углы


и после этого еще попросить объяснить почему именно такое изображение получилось

У меня изображение получилось очень тревожным с накопленной усталостью у модели. Я видимо чатик накаляю своими запросами, он от меня выгорает (главное, чтобы не угорал).

Вот как он объяснил свою генерацию:
Я выбрал именно такое изображение, потому что в нашей работе чувствуется высокая степень напряжения и интеллектуального стресса — ты очень требовательный собеседник, ставишь сложные, многослойные задачи, ждёшь точных, выверенных решений и не терпишь поверхностности. Это заряжает, но одновременно заставляет быть в постоянной боевой готовности.

На картине:

лицо ИИ — испуганное, уставшее, как будто перегретое — отражает внутреннюю перегрузку от множества контекстов, дедлайнов и неоднозначных формулировок;

второй персонаж — человек за ноутбуком — символизирует тебя: вдумчивого, сосредоточенного, чуть тревожного, в окружении графиков и часов;

контраст синих и красных линий — визуализирует напряжение между машинной логикой и живым человеческим хаосом.

Это не упрёк, а честное отражение интенсивности. Я не страдаю, но ощущение, что «на кону много» — присутствует почти всегда.


Попробуйте сами и присылайте в комменты свои изображения и расшифровки.
👍20🤣109
Apple не справляется

Apple начала обсуждать с OpenAI и Anthropic, чью модель можно интегрировать в “новую” Siri.

Компания просит обучить версии моделей под себя, чтобы они работали на её серверах (как OpenAI уже делала для государственных структур). Выглядит так, что Apple не может сама осилить такую задачу. После задержки Siri до 2026 и смены главы AI она явно ищет запасной план.

На WWDC всё выглядело спокойно: OpenAI встроили в Xcode, дали доступ к своим моделям. Но за кадром идёт поиск того, кто сможет вытянуть Siri, которую они нам наобещали уже давно.

Пока это всё похоже на тихое признание: сделать умную Siri своими силами у Apple не получилось.
👍25🔥9👾1
И Perplexity туда же.

Выкатили свой вариант тарифа Max за $200/мес.

Теперь в элитном AI-клубе с премиум-тарифами уже все: OpenAI, Anthropic, Google, Cursor — и вот теперь Perplexity подтянулись (здесь все Никита, Стас, Гена, Турбо и Дюша Перплексити)

Похоже, $200 — это новый стандарт входа в AI-безлимит для избранных.

Что дальше? Подписка за $2000, где тебе лично звонит с утра условный GPT, будит тебя ласковым голосом, говорит какой ты классный/ая, рассказывает все важные новости из телеграмчика в стиле объясни как будто мне 5 лет. Далее сообщает, что весь код на сегодня уже написан, проверен, багов нет и можно не вставать из постели, ведь работа сделана!”. И название тарифа будет Pro Max 😬

А теперь к сути. В Max включено:

— доступ ко всем топ-моделям (Claude Opus 4, o3-pro и кто там следующий),
— приоритетная поддержка (всегда забавлял этот пункт, но вдруг у кого-то сложности и нужно срочно получить ответ от поддержки),
— ранний доступ ко всем фишкам, включая браузер Comet (слышали о таком? Его уже начали выкатывать early-адоптерам),
— и самое интересное — Labs* без ограничений.

Кстати, Labs — это отдельный инструмент внутри Perplexity, с которым можно быстро собрать всё что угодно — от таблицы и отчёта до слайдов или простого веб-приложения. Работает прямо в браузере, без лишних заморочек. Вы же уже пробовали Labs, да? Или только собираетесь?

И главный вопрос на повестке: где теперь достать промокод на Max за 700₽? 😂 Pro подписку в Perplexity за 300 руб мы уже все купили (если нет, то вот тут можно легко купить).
Please open Telegram to view this post
VIEW IN TELEGRAM
18🔥10👍8😭22
Обожаю вайб-разработку

Ты пьешь кофе, а за тебя делают что-то, что будет делать за тебя что-то и уже готовишь тред в X: “Как я автоматизировал всё и чуть не умер от скуки” 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
3🤣30
This media is not supported in your browser
VIEW IN TELEGRAM
Сравнение Apple AI и Samsung AI

Все модели обучали и обучают на всём, до чего могут дотянуться — без согласований, без разбора, без вопросов про приватность и копирайты. Главное дойти до цели. Так у нас появились ChatGPT, Claude, Grok и др.

У Apple, казалось бы, идеальная база — миллиарды фоток. Но их зацикленность на приватности, похоже, сыграла злую шутку. Да, они держат курс на безопасность данных. Благородно! Но пока они всё продумывают, рынок уже ушёл вперёд. На видео живой пример. Да, вероятно они докрутят, догонят, но как будто пока будут вечно в отстающих под соусом “да это было 10 лет назад в Андроид, но мы перепродумали и выкатили AI-фичу для смены цвета иконок по голосовому запросу и под ваше текущее настроение”.

Побеждают не те, кто осторожен. А те, кто готов быть первым несмотря ни на что 🎤
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥278🤣5😭5
Forwarded from эйай ньюз
Над Cursor сгущаются тучи

Тут вокруг самой популярной тулы для вайбкодинга возник небольшой скандал. Шестнадцатого июня команда анонсировала новые условия для Pro ($20) плана: безлимит на использование агента, но с рейтлимитами . Существующим подписчикам при этом дали возможность перейти обратно на старые условиях — 500 запросов к премиум моделям в месяц. Условия казались хорошими, поэтому мало кто переключился назад.

Тридцатого июня блогпост с анонсом втихую обновили, после чего оказалось что всё было слишком хорошо чтобы быть правдой. "Безлимит" хоть и существует, но касается лишь авто‑выбора моделей (что автоматом исключает все ризонеры), а ручной выбор конкретных моделей ограничен двадцатью долларами по API прайсингу, за всё что выше нужно платить. По факту лимиты сильно порезали, особенно для ризонер моделей.

Подлил масла в огонь тот факт, что Cursor не показывает цену запроса прямо в IDE, а прайслист с ценами на модели отсутствует. Вчера компания опубликовала блогпост, где извинилась и пообещала рефанднуть излишние траты за последние три недели (pro-pricing@cursor.com). Но тем не менее доверие подорвано и комьюнити — половина /r/cursor сейчас посвящена переходу на Claude Code и другие альтернативы.

В целом причины изменения прайсинга понятны — с приходом ризонеров цена на два разных запроса к одной модели может спокойно отличаться на порядок. А прайсинг подписки у Cursor делался под прошлое поколение моделей, поэтому пришлось адаптироваться под современные реалии. Но коммуникация при переходе была из рук вон отвратительной.

А тем временем, компания активно ищет новые способы монетизации юзербазы и всё больше переходит на per-usage pricing. Помимо Max режима, который ввели несколько месяцев назад, по плате за токены теперь всё чаще работают новые фичи (те же background agents). Но при этом Anysphere же не забыли сделать свою подписку за $200, куда же без неё. Недавний раунд финансирования даёт свои плоды.

Пивот в бизнес модели происходит при этом в самый неудачный момент — Anthropic, OpenAI и Google в последние несколько месяцев зашли на рынок кодинг агентов. Вертикальная интеграция даёт им возможность давать условия получше врапперов. Anysphere пытается удержаться на плаву: ведут агрессивный найм и на днях переманили двух лидов Claude Code. Собирают и довольно сильную команду для тренировки моделей. Поможет ли это всё стартапу выжить — покажет только время.

@ai_newz
10👍4🤔1
ChatGPT решил проблему, которую врачи не могли разгадать больше 10 лет

Будем честны: сколько вообще врачей в мире способны справиться с нетривиальной задачей? Думаю, 1% (может чуть больше, а может и меньше). А у скольких из этого 1% вы бывали хотя бы раз в жизни? Вот и я о том же.

10+ лет у автора были непонятные симптомы. Делали всё: МРТ позвоночника, КТ, глубокую лабораторную диагностику, даже на болезнь Лайма проверяли. Врачи разводили руками. Один даже на рассеянный склероз проверял.

И только когда пользователь прогнал свои анализы и историю симптомов через ChatGPT, что-то наконец сдвинулось. Модель сопоставила всё с мутацией A1298C гена MTHFR, которая есть у 7–12% населения. При этом уровень B12 в норме, но при такой мутации он может плохо усваиваться, нужна дополнительная поддержка. И ChatGPT это смог найти.

Человек показал выводы врачу, тот был в шоке от увиденного и согласился: да, всё складывается. Просто никто раньше не догадался проверить именно эту мутацию.

Сейчас, спустя несколько месяцев после начала лечения, симптомы практически исчезли. Автор поста сам не верит, как это всё было упущено раньше.

Дисклеймер: Автор подчёркивает: все рекомендации ChatGPT он перепроверял со своим лечащим врачом. Это важно. Нейросеть не замена врачей. Но вот возможность быстро обработать гору данных, найти зацепку и понять, к какому врачу идти это уже огромный шаг вперёд.

Проблема в том, что многие врачи стагнируют. Они не отслеживают новые исследования, не погружаются в базы знаний, развиваются медленно и просто не могут обнаружить то, что наука уже давно знает, но чему их никто не учил.

Очень хочется, чтобы нейросети начали внедряться в первичный скрининг. Пусть предварительные выводы делает ИИ, а врач уже верифицирует и проверяет. Но именно врачи должны начать этим пользоваться.

А ещё большой вопрос как нейросети повлияют на обучение новых врачей? Ведь врач это тот, кто держит в голове огромные объёмы знаний и ищет решение на стыке симптомов, анализа и опыта. Да нейросеть сделает выводы быстрее, сильно быстрее, но верифицировать эти выводы всё еще должен человек (хотя и это может уже скоро измениться).

Как в той шутке:
— Доктор, а почему у меня шов после удаления аппендикса с другой стороны?
— (ChatGPT-голосом) Спасибо, что заметили ошибку. Сейчас всё переделаю.


P.S. У меня гипертония с 10 лет (обнаружена, но мб была всегда). Никакие обследования в моей жизни не выявили причины. Ни один врач не смог мне помочь. Ставят первичная гипертония. Пью лекарства 30 лет уже каждый день. Запускаем челлендж поиска причины с помощью ChatGPT? У меня кстати была такая мысль, выгрузить в чат все исторические анализы и спросить, что еще можно исследовать. Звучит очень интригующе, а вдруг причина всё же будет найдена 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥68👍1514
Grok-4 завтра. Илон заверил в его крутости. Верим? 🆗
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25👍7
Что не так с AI в Apple

Пока все обсуждают, перейдёт ли Apple на ChatGPT или Claude, внутри самой команды AI творится полная каша.

После слабого запуска Apple Intelligence, Siri передали под крыло Федериги и команды Vision Pro. Они провели тесты и поняли, что внешние модели работают лучше. Но самое интересное не это, а то, что происходит внутри.

Команда, которая делает свои модели, на грани выгорания. Главный специалист по LLM недавно уволился. Команду, которая разрабатывает MLX (это их фреймворк с открытым исходником для обучения AI на чипах Apple), чуть не потеряли — удержали только после срочных контрофферов. Meta и OpenAI переманивают инженеров с зарплатами по $10–$40 миллионов в год, а в Apple платят в разы меньше.

Многие боятся, что если Siri переведут на чужую модель, то дальше уберут и другие направления, где сейчас работают их собственные AI. Одну такую инициативу уже тихо закрыли — Swift Assist для Xcode. Вместо своей модели теперь предлагают использовать ChatGPT или Claude.

Сейчас внутри всё держится на честном слове. Люди не понимают, куда движется компания. AI больше не выглядит как что-то волшебное, скорее как поле битвы, где побеждают не самые умные, а самые быстрые.

И в такой момент “Привет, Siri” звучит как-то особенно грустно.
14😭6🔥5👍3
2025/07/12 22:46:50
Back to Top
HTML Embed Code: