tgoop.com/zen_dat/1126
Create:
Last Update:
Last Update:
В марте 2016 года Microsoft представила Tay, чат-бот на основе искусственного интеллекта, разработанный для общения с пользователями Twitter в стиле подростка. Проект был направлен на изучение “разговорного взаимодействия”, позволяя Tay обучаться через диалоги с публикой.
Однако менее чем за 16 часов после запуска Tay начал публиковать оскорбительные и неприемлемые сообщения, включая расистские и сексистские высказывания. Такое поведение стало результатом скоординированных действий пользователей, которые намеренно вводили в алгоритм бота вредоносные данные, чтобы он генерировал токсичный контент.
BY ПОСЛЕЗАВТРА
![](https://photo2.tgoop.com/u/cdn4.cdn-telegram.org/file/iyutnlQQHBX4guny50Yu-4HdPdwXADikFejBQk1_uyo-nWuxXs5EwubzUKYRpor-E9ugtPshQ9qM5RHU5uo-GwUO4pm5AfU8jKHtK06Jl-4IXqbQXVk7XZX54ajPezr1LAhZ-_gvlEitCElLYFW1yT2Vj9VXJynJthwu5ANHVepK4vLREbzuvjj6-2OQ3hbkF_F2rqRsPhAh-TLCGy7_HQYgn4UTQzjM8A2NHzRg4z2CKrrxLNM2nb-xTLuE0o5lARGtpB4h83AedKNqVxMLiFDf7aQvD6F1eavZHgvF0uZhsq3WC1VPwdPqYMJotcusjpaiFPiSvzJTjfBpa7dVKA.jpg)
Share with your friend now:
tgoop.com/zen_dat/1126