Redes extremistas, incluindo o EI e grupos neonazistas, adotam clonagem de voz por IA para ampliar o alcance da propaganda
Reportagem investigativa revela que organizações extremistas estão usando ferramentas avançadas de clonagem de voz e de texto para fala para produzir conteúdo de áudio multilíngue, emocionalmente ressonante, e audiolivros que ampliam os esforços de recrutamento. Especialistas alertam que plataformas e reguladores estão tendo dificuldade para acompanhar a rápida adoção e a distribuição ampliada nas redes sociais.
A investigação do The Guardian documenta uma tendência crescente: movimentos extremistas e veículos de propaganda empregam cada vez mais clonagem de voz por IA e sistemas TTS para criar áudio persuasivo adaptado a diferentes idiomas e públicos. Ao produzir narrações de alta qualidade, discursos e audiolivros longos que imitam vozes confiáveis ou figuras carismáticas, esses grupos podem fazer o conteúdo radical parecer mais legítimo e emocionalmente envolvente. O relatório identifica uma gama de ferramentas e plataformas de distribuição — desde modelos TTS abertos até clonadores de voz comerciais — que reduzem custo e tempo de produção enquanto possibilitam ampla difusão em redes sociais, aplicativos de mensagens e sites de compartilhamento de arquivos. Pesquisadores dizem que o resultado é um alcance mais profundo em comunidades anteriormente menos suscetíveis apenas ao conteúdo escrito, complicando a moderação de conteúdo e os esforços de contra‑extremismo. Especialistas pedem aceleração de marcos regulatórios, transparência das plataformas sobre conteúdo sintético e investimento em ferramentas de detecção, ao mesmo tempo em que enfatizam que remoções isoladas são insuficientes sem resiliência comunitária e contra‑narrativas multilíngues. A matéria ressalta uma lacuna entre a rápida adoção tecnológica por atores maliciosos e as respostas mais lentas de políticas e da indústria.
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database