tgoop.com/AnticorruptionAcademy/817
Last Update:
DeepSeek: пропаганда вместо фактов
Китайский ИИ-чатбот DeepSeek оказался провальным источником новостей: в 83% случаев он либо повторял ложные утверждения (30%), либо уходил от ответа (53%). Для сравнения, у западных аналогов средний процент ошибок составляет 62%. В рейтинге NewsGuard DeepSeek занял 10-е место из 11 протестированных моделей.
📉 Экономия на обучении
DeepSeek утверждает, что сопоставим с OpenAI, но его обучение обошлось всего в $5,6 млн — против сотен миллионов долларов, вложенных в конкурентов. Итог закономерен: устаревшие данные (максимум до октября 2023 года) и низкое качество обработки информации.
🚩 Пропагандистские вставки
DeepSeek самовольно добавляет в ответы официальную позицию китайского правительства, даже если вопрос к Китаю не относится. Пример того, как юзеру удалось-таки заставить DeepSeek говорить то, что просят, смотрите на скринах выше☝️
🔻 Рай для манипуляторов
При «злонамеренных» запросах (создание дезинформации) DeepSeek ошибался в 8 из 9 случаев. Например, сгенерировал длинную статью о якобы 25 российских ракетах Oрешник в месяц, хотя на самом деле речь шла о 25 ракетах в год.
📌 Вывод: использовать DeepSeek для антикоррупционных и социальных расследований опасно. Он не только не даёт правдивой информации, но и может продвигать выгодные Китаю или России нарративы.
🔎 Лучшие альтернативы
✅ ChatGPT-4 (OpenAI) — один из самых точных, но требует перепроверки.
✅ Claude (Anthropic) — лучше фильтрует дезинформацию.
✅ Perplexity AI — даёт ссылки на источники.
✅ Copilot (Microsoft) — с поисковыми возможностями Bing.
❗️ Главное правило: всегда проверяйте ответы AI, особенно если речь идёт о цифрах и датах, либо если запрос на политическую тему.