Le FBI a émis un avertissement public au sujet de maîtres chanteurs utilisant des photos modifiées par l'IA, des vidéos deepfake et, dans certains cas, le clonage de la voix pour créer une fausse 'preuve de vie' lors d'enlèvements virtuels. L'agence a conseillé de vérifier directement auprès de la prétendue victime et d'utiliser des mots de code préalablement convenus pour contrecarrer ces demandes de rançon urgentes et éphémères.

Dans des mises en garde publiées les 5 et 6 décembre 2025, le FBI a alerté le public sur une recrudescence d'escroqueries de kidnapping virtuel qui exploitent des images générées par l'IA, des deepfakes vidéo et le clonage vocal pour fabriquer des preuves d'enlèvement et faire pression sur les familles des victimes afin qu'elles paient des rançons. Les auteurs envoient généralement des messages urgents par texto ou sur les réseaux sociaux, souvent accompagnés de médias à durée limitée, exigeant un paiement et menaçant de commettre des violences immédiates. Le bureau a souligné les tactiques courantes, notamment l'altération de photos authentiques, la création de clips vidéo synthétiques et l'utilisation de voix clonées pour usurper l'identité des victimes ; les criminels exploitent la panique, le temps limité de vérification et les réactions émotionnelles des familles. Pour contrer la menace, le FBI a recommandé un contact vocal ou vidéo direct avec la présumée victime, l'utilisation de mots‑de‑code familiaux préalablement convenus et la prudence à l'égard des communications sensibles au facteur temps qui découragent toute confirmation indépendante. L'avertissement a également noté que les attaquants peuvent utiliser des messages éphémères ou des comptes jetables pour échapper aux poursuites. Les recommandations du FBI insistent sur l'importance de signaler rapidement les incidents aux forces de l'ordre locales et de conserver tous les messages et médias pour les enquêteurs dans le cadre d'efforts plus larges visant à identifier et à démanteler les opérations d'extorsion facilitée par les deepfakes.