FBI alerta sobre extorsão por sequestro virtual gerada por IA usando deepfakes e clonagem de voz
O FBI emitiu um aviso público sobre extorsionistas que usam fotos alteradas por IA, vídeo deepfake e, em alguns casos, clonagem de voz para criar uma falsa 'prova de vida' em sequestros virtuais. A agência recomendou verificação direta com a suposta vítima e o uso de palavras-código pré-acordadas para frustrar essas exigências de resgate urgentes e efêmeras.
Em alertas divulgados em 5 e 6 de dezembro de 2025, o FBI alertou o público sobre um aumento em golpes de sequestro virtual que utilizam imagens geradas por IA, deepfakes de vídeo e clonagem de voz para fabricar evidências de sequestro e pressionar as famílias das vítimas a pagar resgates. Os criminosos normalmente enviam mensagens urgentes por texto ou redes sociais, frequentemente com mídia de tempo limitado, exigindo pagamento e ameaçando causar dano imediato. O bureau enfatizou táticas comuns, incluindo a alteração de fotos autênticas, a criação de clipes de vídeo sintéticos e o uso de vozes clonadas para se passar pelas vítimas; os criminosos exploram o pânico, o tempo limitado para verificação e as respostas emocionais das famílias. Para combater a ameaça, o FBI recomendou contato direto por voz ou vídeo com a suposta vítima, o uso de palavras‑código familiares preestabelecidas e ceticismo em relação a comunicações sensíveis ao tempo que desencorajam a verificação independente. O aviso também observou que os atacantes podem usar mensagens efêmeras ou contas descartáveis para evitar rastreamento. A orientação do FBI ressalta a importância de relatar os incidentes prontamente às autoridades policiais locais e de preservar todas as mensagens e mídias para os investigadores como parte de esforços mais amplos para identificar e desarticular operações de extorsão habilitadas por deepfakes.
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database