Экстремистские сети, включая ИГ и неонацистские группы, используют AI-клонирование голосов, чтобы расширить охват пропаганды
Расследовательская журналистика обнаруживает, что экстремистские организации используют продвинутые инструменты клонирования голоса и преобразования текста в речь для создания многоязычного, эмоционально насыщенного аудиоконтента и аудиокниг, расширяющих их вербовочные усилия. Эксперты предупреждают, что платформы и регуляторы не успевают за быстрым распространением и усиленным распространением в социальных сетях.
Расследование The Guardian фиксирует растущую тенденцию: экстремистские движения и пропагандистские ресурсы всё чаще используют технологии клонирования голоса на базе ИИ и системы синтеза речи (TTS) для создания убедительных аудиоматериалов, адаптированных под разные языки и аудитории. Производя качественные озвучивания, выступления и длинные аудиокниги, имитирующие доверенные голоса или харизматичных фигур, эти группы могут делать радикальный контент более легитимным и эмоционально вовлекающим. В отчёте перечислены различные инструменты и платформы доставки — от открытых моделей TTS до коммерческих сервисов клонирования голоса — которые сокращают затраты и время производства и при этом позволяют широко распространять материалы в социальных сетях, мессенджерах и на файлообменных сайтах. Исследователи отмечают, что в результате охват углубляется — контент проникает в сообщества, ранее менее восприимчивые к чисто письменным материалам, что осложняет модерирование контента и усилия по противодействию экстремизму. Эксперты призывают к ускорению разработки нормативной базы, прозрачности платформ в отношении синтетического контента и инвестициям в инструменты его обнаружения, при этом подчёркивая, что одних лишь удалений недостаточно без укрепления устойчивости сообществ и многоязычных контрнаративов. Материал подчёркивает разрыв между быстрым освоением технологий злоумышленниками и более медленной реакцией политиков и отрасли.
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database