Das FBI gab eine öffentliche Warnung heraus, dass Erpresser KI-veränderte Fotos, Deepfake-Videos und in manchen Fällen Stimmenklonen verwenden, um gefälschte ‚proof of life‘ für virtuelle Entführungen zu erstellen. Die Behörde riet zu direkter Verifizierung mit dem angeblichen Opfer und zur Verwendung vorab vereinbarter Codewörter, um diese dringenden, kurzlebigen Lösegeldforderungen zu vereiteln.

In Warnungen, die am 5.–6. Dezember 2025 veröffentlicht wurden, warnte das FBI die Öffentlichkeit vor einem Anstieg von virtuellen Entführungsbetrügereien, die AI‑generierte Bilder, Video‑Deepfakes und Stimmklonen nutzen, um Entführungsbeweise zu fälschen und die Familien der Opfer zur Zahlung von Lösegeld zu drängen. Angreifer senden typischerweise dringende Text‑ oder Social‑Media‑Nachrichten, oft mit zeitlich begrenzten Medien, fordern Zahlungen und drohen sofortigem Schaden. Die Behörde betonte gängige Taktiken, darunter die Veränderung authentischer Fotos, die Erstellung synthetischer Videoclips und der Einsatz geklonter Stimmen zur Imitation von Opfern; Kriminelle machen sich Panik, begrenzte Verifizierungszeit und die emotionalen Reaktionen der Familien zunutze. Zur Abwehr der Bedrohung empfahl das FBI direkten Sprach‑ oder Videokontakt mit dem angeblichen Opfer, die Verwendung vereinbarter Familien‑Codewörter und Skepsis gegenüber zeitkritischen Mitteilungen, die unabhängige Bestätigungen entmutigen. Die Beratung wies außerdem darauf hin, dass Angreifer flüchtige Nachrichten oder Wegwerfkonten verwenden können, um der Rückverfolgung zu entgehen. Die Hinweise des FBI unterstreichen, Vorfälle umgehend bei der örtlichen Strafverfolgung zu melden und alle Nachrichten und Medien für Ermittler zu sichern, als Teil breiterer Bemühungen, erpressungsbasierte Operationen mittels Deepfakes zu identifizieren und zu zerschlagen.