tgoop.com/rus_report/207659
Last Update:
Распространение информации якобы от официальных источников может преследовать различные цели: от фишинга до психологического воздействия с целью дестабилизации обстановки.
Распространение дипфэйк-видео стало возможным с развитием технологий. Злоумышленники для начала собирают голосовые образцы из публичных выступлений, интервью, аудиозаписей и с помощью нейросетей синтезируют фальшивые фразы, имитирующие тембр, интонации и манеру речи человека. Современные модели позволяют создавать такие образцы за считаные минуты, а в сочетании с deepfake-видеогенерацией мошенники могут имитировать даже видеозвонки.
Сегодня в Интернете есть как минимум с десяток открытых сайтов и специализированных программ, позволяющих это сделать практически любому человеку со средними навыками владения компьютером.
К сожалению, технологии защиты пока отстают от темпов развития дипфейков.
Компании-разработчики уже начали тестирование алгоритмов детекции подделок, анализируя микроколебания голоса, аномалии синтеза речи, артефакты в визуальном рендеринге.
Некоторые банки и мессенджеры разрабатывают механизмы аутентификации по дополнительным факторам, включая запрос на произнесение случайных слов, анализ биометрических характеристик и проверку метаданных аудиофайлов. Однако массового и надежного решения пока на рынке нет. Поэтому главное – это сохранять бдительность.
Используйте дополнительные каналы проверки: перезванивайте официальным контактам, задавайте вопросы, на которые «подделка» может не знать ответов. Не доверяйте видеозвонкам вслепую, особенно если качество изображения странное, а мимика выглядит искусственно.
BY Русский репортер
Share with your friend now:
tgoop.com/rus_report/207659