tgoop.com/rogozin_alexey/2237
Last Update:
Я недавно писал, как всё чаще начали использоваться сгенерированные голоса для мошенничества. Но если задуматься, это ведь только первые ласточки.
Учёные из Стэнфорда провели очень интересное исследование и выяснили, что цифровые копии личности уже сегодня могут с 85-процентной точностью имитировать мышление конкретных людей. Созданные искусственным интеллектом "дипфейки" способны принести революцию не только в социальных науках, но и изменить наше представление о реальности.
В Стэнфордском университете провели эксперимент, в ходе которого с высокой точностью были "смоделированы" более 1000 реальных людей. Сделано это было с использованием новой модели искусственного интеллекта, лежащей в основе ChatGPT. Как выяснилось, современные модели ИИ способны предсказывать ответы людей на различные опросники, психологические тесты на личность и мысленные эксперименты с точностью до 85 процентов, основываясь всего лишь на коротком двухчасовом "живом" общении.
Исследователи утверждают, что такая технология может стать мощным инструментом для социальных исследований и политики, позволяя моделировать реакции людей на разные политические решения. Это само по себе ставит много этических вопросов, но понятно, что если такие "цифровые двойники" конкретных людей попадут в руки злоумышленников, они могут использовать их для манипуляций, шантажа или других неправомерных действий. Всё это приведёт к снижению доверия к любому виртуальному взаимодействию.
А как вам новый жанр - ИИ-интервью с умершими знаменитостями? (например, опубликованная на днях дискуссия одного из российских блогеров с "виртуальным Лениным")?
Нет впечатления, что такое цифровое клонирование должно начать как-то законодательно регулироваться?
@rogozin_alexey
BY Алексей Рогозин ✈️🚀🏗️
Share with your friend now:
tgoop.com/rogozin_alexey/2237