Des reportages et des entretiens d'experts montrent que des groupes extrémistes adoptent le clonage vocal par IA et la synthèse vocale (text‑to‑speech) pour produire de la propagande multilingue. The Guardian souligne l'utilisation de discours historiques clonés et de livres audio pour augmenter l'engagement et échapper à la modération.

Une enquête du Guardian détaille comment des acteurs extrémistes, y compris des réseaux néo‑nazis et djihadistes, adoptent rapidement des outils audio génératifs pour produire une propagande plus persuasive et multilingue. Les sources et experts interrogés pour l'article décrivent plusieurs schémas d'utilisation abusive : clonage des voix de figures historiques et de dirigeants de mouvements pour créer des discours à forte résonance émotionnelle, production de livres audio narrés de textes interdits ou extrémistes, et réemploi d'extraits audio de célébrités ou d'influenceurs pour conférer de la crédibilité aux messages. Le contenu résultant est optimisé pour les formats des plateformes — clips courts et partageables et versions traduites adaptées aux publics régionaux — qui augmentent la portée et l'engagement sur les réseaux sociaux, les applications de messagerie chiffrée et les forums marginaux. Les réponses en matière de modération et de régulation peinent à suivre, car l'audio synthétique peut être produit rapidement, diffusé via des canaux décentralisés et fréquemment re-téléchargé avec de légères modifications pour échapper à la détection automatisée. L'article appelle à une action coordonnée : investissement dans des outils de détection, politiques de plateforme plus claires traitant des voix synthétisées, coopération transfrontalière entre entreprises technologiques et régulateurs, et contre-messages ciblés pour attenuer l'attrait des audios fabriqués et émotionnellement puissants utilisés par des mouvements violents et extrémistes.