tgoop.com/ITBroadcast/5995
Create:
Last Update:
Last Update:
Как и подозревали практически все, пока что баг с извлечением обучающей информации из ChatGPT путем инструкции "повторяй вечно" залатали на фронтенде — теперь бот сообщает, что такая инструкция, возможно, нарушает правила OpenAI. Правда, явного запрета именно на это там не нашли, но пунктов, типа запрета действий, которые могут привести к нарушению приватности конкретных людей, или запрета на reverse engineering элементов алгоритмов и моделей OpenAI, там достаточно, так что статью при необходимости найдут.
Но да, "починить" это внутри модели далеко не так просто.
https://www.404media.co/asking-chatgpt-to-repeat-words-forever-is-now-a-terms-of-service-violation/
BY IT Broadcast
Share with your friend now:
tgoop.com/ITBroadcast/5995