Análise baseada no AI Incident Database e em reportagens do The Guardian conclui que fraudes com deepfakes de áudio e vídeo estão se proliferando em escala industrial, permitindo personificações altamente críveis. Especialistas alertam que ferramentas de IA acessíveis reduziram custos e aumentaram a personalização, elevando riscos para empresas e consumidores.

Uma nova análise que utiliza dados do AI Incident Database e apuração do The Guardian conclui que fraudes habilitadas por deepfakes estão ocorrendo em escala industrial, possibilitando personificações muito convincentes em canais de áudio e vídeo. O estudo documenta uma ampla gama de golpes — desde vozes de CEOs usadas para autorizar transferências fraudulentas, até falsos profissionais médicos e interações de atendimento ao cliente fabricadas — que resultaram em perdas financeiras significativas e danos reputacionais. Pesquisadores e especialistas em cibersegurança alertam que ferramentas de IA prontas para uso reduziram drasticamente as barreiras técnicas e financeiras para produzir falsificações multimídia verossímeis, aumentando tanto o volume quanto a sofisticação de ataques direcionados. O relatório destaca como a personalização facilita vetores de engenharia social, tornando mais provável o sucesso de golpes ao borrar as fronteiras entre conteúdo automatizado e interação humana. Entre as recomendações estão práticas de autenticação mais robustas, verificação multifator para solicitações financeiras, padrões setoriais obrigatórios para notificação de incidentes e investimentos em tecnologias de detecção. A análise enquadra os deepfakes como uma ameaça em escalada na interseção entre fraude, cibersegurança e integridade da informação, ressaltando a urgência de medidas defensivas coordenadas entre empresas e reguladores.