FBI warnt die US-Öffentlichkeit vor KI-generierten 'virtual kidnapping'-Betrugsversuchen mittels Stimmklonen
Das FBI warnte, dass Kriminelle zunehmend KI-Stimmenklonen, Deepfakes und manipulierte Bilder verwenden, um virtuelle Entführungs-Erpressungen durchzuführen, die Opfer unter Druck setzen, schnell zu zahlen. Behörden raten, eine nahestehende Person direkt zu verifizieren, familieneigene Sicherheitswörter zu verwenden und Vorfälle der Strafverfolgung sowie dem IC3-Portal zu melden.
Das FBI gab eine landesweite Warnung heraus, in der ein Anstieg von KI-unterstützten virtuellen Entführungsbetrügereien beschrieben wird, bei denen Angreifer Stimmklone, Deepfake-Videos und KI-veränderte Fotos verwenden, um überzeugende, aber betrügerische Beweise dafür zu erzeugen, dass ein Angehöriger als Geisel gehalten wird. Betrüger kontaktieren typischerweise Opfer und fordern sofortige Zahlung, häufig in Kryptowährung oder mit nicht zurückverfolgbaren Methoden, während sie synthetische Audio- oder Videoclips einsetzen, um Panik oder Drohungen zu simulieren. Das Bureau stellte fest, dass aktuelle KI-generierte Materialien oft erkennbare Inkonsistenzen aufweisen, und gab praktische Abwehrmaßnahmen: Kontaktieren Sie die angebliche Person direkt über bekannte Nummern, legen und verwenden Sie Familien-Codewörter, beschränken Sie das Teilen privater Medien online und melden Sie Vorfälle bei der örtlichen Strafverfolgung und dem FBI IC3-Beschwerdezentrum. Die Warnung hebt die Geschwindigkeit und den emotionalen Druck hervor, den diese Betrügereien ausnutzen, und fordert Institutionen und Verbraucher auf, Verifizierungsprotokolle einzuführen, sowie Dienstanbieter, missbräuchliche Accounts und manipulierte Medien zu überwachen. Das FBI betonte die Koordination mit Opfern und die Sensibilisierung der Öffentlichkeit, um erfolgreiche Erpressungen zu verringern und Ermittlungsansätze zu verbessern.
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database