Redes neo‑nazis y yihadistas usan la clonación de voz por IA para amplificar la propaganda
Informes y entrevistas con expertos muestran que los grupos extremistas están adoptando la clonación de voz por IA y la conversión de texto‑a‑voz para producir propaganda multilingüe. The Guardian destaca el uso de discursos históricos clonados y audiolibros para aumentar el compromiso y eludir la moderación.
Una investigación de The Guardian detalla cómo actores extremistas, incluidos redes neonazis y yihadistas, están adoptando rápidamente herramientas de audio generativo para producir propaganda más persuasiva y multilingüe. Fuentes y expertos entrevistados para el reportaje describen varios patrones de uso indebido: clonar voces de figuras históricas y líderes de movimientos para crear discursos de gran carga emocional, producir audiolibros narrados de textos prohibidos o extremistas, y reutilizar audios de celebridades o influencers para dar credibilidad a los mensajes. El contenido resultante se optimiza para los formatos de las plataformas —clips cortos y compartibles y versiones traducidas adaptadas a audiencias regionales— que aumentan el alcance y la interacción en redes sociales, aplicaciones de mensajería cifrada y foros marginales. Las respuestas de moderación y regulación están luchando por mantenerse al día porque el audio sintético puede producirse con rapidez, distribuirse por canales descentralizados y volver a subirse con ediciones menores para evadir la detección automatizada. El artículo pide una acción coordinada: inversión en herramientas de detección, políticas más claras de las plataformas que aborden las voces sintetizadas, cooperación transfronteriza entre empresas tecnológicas y reguladores, y contra-mensajes dirigidos para amortiguar el atractivo del audio fabricado y emocionalmente poderoso utilizado por movimientos violentos y extremistas.
Artículos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database