Redes neonazistas e jihadistas usando clonagem de voz por IA para amplificar propaganda
Reportagens e entrevistas com especialistas mostram grupos extremistas adotando clonagem de voz por IA e text‑to‑speech para produzir propaganda multilíngue. O The Guardian destaca o uso de discursos históricos clonados e audiolivros para aumentar o engajamento e driblar a moderação.
Uma investigação do Guardian detalha como atores extremistas, incluindo redes neonazistas e jihadistas, estão adotando rapidamente ferramentas de áudio generativo para produzir propaganda mais persuasiva e multilíngue. Fontes e especialistas entrevistados para a matéria descrevem vários padrões de uso indevido: clonar vozes de figuras históricas e líderes de movimentos para criar discursos de forte apelo emocional, produzir audiolivros narrados de textos proibidos ou extremistas, e reaproveitar áudios de celebridades ou influenciadores para conferir credibilidade às mensagens. O conteúdo resultante é otimizado para formatos de plataforma — clipes curtos e compartilháveis e versões traduzidas adaptadas a audiências regionais — que aumentam o alcance e o engajamento em redes sociais, aplicativos de mensagens criptografadas e fóruns marginais. Respostas de moderação e regulatórias estão com dificuldade de acompanhar porque áudio sintético pode ser produzido rapidamente, distribuído por canais descentralizados e frequentemente reenviado com pequenas edições para escapar da detecção automatizada. O artigo pede ação coordenada: investimento em ferramentas de detecção, políticas de plataforma mais claras que abordem vozes sintetizadas, cooperação transfronteiriça entre empresas de tecnologia e reguladores, e contramensagens direcionadas para reduzir o apelo de áudios fabricados emocionalmente poderosos usados por movimentos violentos e extremistas.
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database