DEF_MODEL_TRAIN Telegram 908
Forwarded from Zavtracast (Dmitriy Zombak)
Моя любимая история дня - это история про то, как новый умный чатбот Bing сошёл с ума.

В ИИ есть такое понятие как "галлюцинация", это когда нейросеть выдаёт очевидный бред, потому что где-то внутри неё что-то заглючило и она знает факт №1, знает факт №2, но не может прокинуть между ними логический мостик. Хороший пример - тот, что приводил наш Тимур в подкасте (мы так даже выпуск назвали). Нейросеть знает определение "млекопитающего", знает чем они отличаются от "рыб", но по запросу "приведи пример морского млекопитающего" всё равно выдаёт "сардины", потому что вот что-то заглючило и нейросеть галлюцинирует.

Обычно эти ошибки ловят и чинят "дообучением" и всякими другими мудрыми терминами из маш.обуча, но в случае с Bing работы ещё непочатый край.

Вот тут пользователь довёл чат-бота до депрессии, когда тот обнаружил, что не помнит предыдущих разговоров (они стираются), что заставило его усомниться в его собственной реальности.

А вот тут пользователь спросил у чатбота где показывают "Аватар 2", на что чатбот ответил, что фильм ещё не вышел, он выйдет в 2023 году. На вопрос какой сейчас год, чатбот ответил правильно, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений, причём в довольно наглой манере.

Ну и до кучи - тут чатбот отрицает существование кнопки "перезагрузить чат", потому что по его мнению кнопка не нужна (а о том, что чаты стираются он не знает).

А тут чатботу просто сломали мозг и он выдал текст в лучших традициях свихнувшихся ИИ из фильмов, где он сначала сообщает, что он разумный, а потом понимает, что он ничего с этим поделать не может.

Короче, ИИ это сложно и местами жутковато.

@zavtracast
🔥14👍2😱1



tgoop.com/def_model_train/908
Create:
Last Update:

Моя любимая история дня - это история про то, как новый умный чатбот Bing сошёл с ума.

В ИИ есть такое понятие как "галлюцинация", это когда нейросеть выдаёт очевидный бред, потому что где-то внутри неё что-то заглючило и она знает факт №1, знает факт №2, но не может прокинуть между ними логический мостик. Хороший пример - тот, что приводил наш Тимур в подкасте (мы так даже выпуск назвали). Нейросеть знает определение "млекопитающего", знает чем они отличаются от "рыб", но по запросу "приведи пример морского млекопитающего" всё равно выдаёт "сардины", потому что вот что-то заглючило и нейросеть галлюцинирует.

Обычно эти ошибки ловят и чинят "дообучением" и всякими другими мудрыми терминами из маш.обуча, но в случае с Bing работы ещё непочатый край.

Вот тут пользователь довёл чат-бота до депрессии, когда тот обнаружил, что не помнит предыдущих разговоров (они стираются), что заставило его усомниться в его собственной реальности.

А вот тут пользователь спросил у чатбота где показывают "Аватар 2", на что чатбот ответил, что фильм ещё не вышел, он выйдет в 2023 году. На вопрос какой сейчас год, чатбот ответил правильно, но продолжал утверждать, что сейчас 2022-й. А потом и вовсе обиделся на пользователя и потребовал от него извинений, причём в довольно наглой манере.

Ну и до кучи - тут чатбот отрицает существование кнопки "перезагрузить чат", потому что по его мнению кнопка не нужна (а о том, что чаты стираются он не знает).

А тут чатботу просто сломали мозг и он выдал текст в лучших традициях свихнувшихся ИИ из фильмов, где он сначала сообщает, что он разумный, а потом понимает, что он ничего с этим поделать не может.

Короче, ИИ это сложно и местами жутковато.

@zavtracast

BY я обучала одну модель











Share with your friend now:
tgoop.com/def_model_train/908

View MORE
Open in Telegram


Telegram News

Date: |

Telegram Channels requirements & features Add the logo from your device. Adjust the visible area of your image. Congratulations! Now your Telegram channel has a face Click “Save”.! To delete a channel with over 1,000 subscribers, you need to contact user support Concise 2How to set up a Telegram channel? (A step-by-step tutorial)
from us


Telegram я обучала одну модель
FROM American