Uma nova análise mostra que golpes de personificação habilitados por deepfakes se tornaram baratos, escaláveis e altamente direcionados, abrangendo desde chamadas de vídeo falsas com executivos até endossos médicos e políticos gerados por IA. Pesquisadores alertam que áudio e vídeo sintéticos são agora um vetor dominante e em rápido crescimento para fraudes financeiras e ataques de engenharia social.

Uma análise e relatório do AI Incident Database, publicado pelo The Guardian, detalham como os golpes de personificação habilitados por deepfake passaram de incidentes isolados para operações em escala industrial. Fraudadores usam áudio e vídeo sintéticos para simular executivos, médicos e figuras públicas, produzindo interações realistas e direcionadas que enganam vítimas para realizar transferências de alto valor e endossos. Um caso documentado envolveu uma chamada de vídeo com um executivo falso que convenceu um agente financeiro em Cingapura a transferir quase $500.000. Outros exemplos incluem endossos de médicos gerados por IA e personificações políticas destinadas a influenciar a opinião pública ou desacreditar indivíduos. Pesquisadores descobriram que essas operações são baratas para escalar, frequentemente automatizadas e capazes de produzir grandes lotes de conteúdo plausível adaptado a vítimas específicas. O relatório acende alertas sobre perdas financeiras, erosão da confiança em mídias gravadas e dificuldades para investigadores, já que verificações padrão de autenticação tornam-se pouco confiáveis. Especialistas pedem respostas coordenadas técnicas, políticas e legais, incluindo ferramentas de detecção, padrões de proveniência e maior colaboração entre indústria e agentes da lei para conter o rápido crescimento dos golpes com mídia sintética.