Liebesbetrüger nutzen jetzt Echtzeit‑KI‑Deepfake‑Videoanrufe
Deepfake-Technologie ermöglicht Betrügern, überzeugende Live-Videochats zu führen und traditionelle Verifizierungsverfahren zu unterlaufen.
Die Federal Trade Commission hat einen alarmierenden Bericht veröffentlicht, der zeigt, dass Liebesbetrüger begonnen haben, Echtzeit-Deepfake-Video-Technologie zu verwenden, um überzeugende Videoanrufe mit Opfern durchzuführen. Diese gefährliche neue Technik macht den gängigen Rat „per Video-Chat die Identität einer Person zu überprüfen“ völlig zunichte. Opfer berichten, über Wochen oder Monate mehrere Videokonversationen mit ihrem vermeintlichen romantischen Interesse geführt zu haben, nur um schließlich zu entdecken, dass die Person nie existierte. Die KI-Technologie kann realistische Gesichtsausdrücke erzeugen, zur Stimme des Betrügers lippensynchronisieren und sogar verschiedene Akzente nachahmen. Die Empfehlungen der FTC umfassen: alle Fotos per Rückwärts-Bildersuche prüfen, extrem misstrauisch gegenüber Personen sein, die behaupten, beim Militär im Ausland, auf einer Bohrinsel oder als Arzt/Ärztin im Ausland zu sein, und niemals Geld an jemanden senden, den man nicht mehrfach persönlich getroffen hat. Die Verluste durch Liebesbetrug erreichten 2024 mit 1,3 Milliarden US-Dollar einen Rekord.