FBI gibt dringende Warnung vor KI-Stimmenklon-Betrügereien heraus - 27. November 2025
Kriminelle nutzen KI, um die Stimmen von geliebten Menschen zu klonen, und fordern dringende Zahlungen für fingierte Notfälle.
Das FBI hat eine dringende Warnung vor einem Anstieg von KI-gestützten Voice‑Cloning‑Betrügereien herausgegeben, die Familien in ganz Amerika ins Visier nehmen. Kriminelle sammeln Sprachproben aus Social‑Media‑Videos und nutzen fortschrittliche KI‑Werkzeuge, um überzeugende Klone zu erstellen. Opfer erhalten panikverursachende Anrufe von dem, was genau wie ihre Kinder oder Enkel klingt und behauptet, sie seien im Gefängnis, im Krankenhaus oder im Ausland gestrandet und bräuchten sofortige Geldüberweisungen. „Die Technologie ist so ausgereift geworden, dass selbst nahe Familienmitglieder die gefälschte Stimme nicht von der echten unterscheiden können“, erklärte die Cyber Division des FBI. Experten empfehlen dringend, ein geheimes familiäres Codewort für Notfälle festzulegen, das nur Familienmitglieder kennen. Die Verluste durch diese KI‑gestützten Betrugsmaschen überstiegen 2024 2,5 Milliarden Dollar, wobei ältere Opfer besonders ins Visier genommen wurden.
What this article means for a user right now
Kriminelle nutzen KI, um die Stimmen von geliebten Menschen zu klonen, und fordern dringende Zahlungen für fingierte Notfälle.
- Scam Detector: For mixed scam inputs such as messages, files, screenshots, links, and fake shops.
- How StopScam Works: For the product path from first web check to ongoing mobile protection.
Bester nächster Schritt
Offizielle Ressourcen
Verwandte Artikel
Europol‑led operation: 330+ arrests in 70 countries exposing document forgery and illicit waste trafficking
Owner of durable medical equipment company sentenced for $59 million Medicare fraud scheme