Análise do The Guardian com dados do AI Incident Database mostra que deepfakes se tornaram baratos e escaláveis, sendo usados para promover golpes de investimento e se passar por contatos das vítimas. Especialistas alertam que a IA generativa permite engenharia social hiper‑personalizada em contratações, relacionamentos e fraudes corporativas, dificultando a detecção e a resposta das autoridades.

Reportagem investigativa publicada pelo The Guardian, apoiada pelo AI Incident Database, revela que a geração de deepfakes deixou de ser demonstração de nicho e virou uma ferramenta acessível e de alto rendimento para fraudadores. Criminosos produzem vídeos e áudios sintéticos convincentes de figuras públicas e de contatos privados para promover oportunidades de investimento falsas, imitar executivos em compromissos por e‑mail corporativo e acelerar golpes de romance e de contratação. A análise documenta vários episódios em que vítimas perderam quantias substanciais após acreditar em conteúdos falsos realistas que davam aparente credibilidade a pedidos fraudulento ou supostos endossos. Pesquisadores e profissionais de cibersegurança alertam que a democratização dos modelos generativos, aliada a canais de distribuição em larga escala, permite que quadrilhas façam campanhas em massa enquanto personalizam mensagens para obter altas taxas de conversão. O aumento do uso abusivo de mídia sintética pressiona as ferramentas de detecção existentes e os marcos legais, gerando apelos por padrões de proveniência mais rígidos, processos rápidos de remoção e campanhas de conscientização pública. Agências de investigação estão adaptando fluxos de trabalho para incorporar inteligência forense em IA, rastreamento em blockchain e cooperação internacional, mas especialistas dizem que políticas e defesas técnicas ficaram atrás do ritmo de exploração.