FBI gibt dringende Warnung vor KI-Stimmenklon-Betrügereien heraus - 27. November 2025
Kriminelle nutzen KI, um die Stimmen von geliebten Menschen zu klonen, und fordern dringende Zahlungen für fingierte Notfälle.
Das FBI hat eine dringende Warnung vor einem Anstieg von KI-gestützten Voice‑Cloning‑Betrügereien herausgegeben, die Familien in ganz Amerika ins Visier nehmen. Kriminelle sammeln Sprachproben aus Social‑Media‑Videos und nutzen fortschrittliche KI‑Werkzeuge, um überzeugende Klone zu erstellen. Opfer erhalten panikverursachende Anrufe von dem, was genau wie ihre Kinder oder Enkel klingt und behauptet, sie seien im Gefängnis, im Krankenhaus oder im Ausland gestrandet und bräuchten sofortige Geldüberweisungen. „Die Technologie ist so ausgereift geworden, dass selbst nahe Familienmitglieder die gefälschte Stimme nicht von der echten unterscheiden können“, erklärte die Cyber Division des FBI. Experten empfehlen dringend, ein geheimes familiäres Codewort für Notfälle festzulegen, das nur Familienmitglieder kennen. Die Verluste durch diese KI‑gestützten Betrugsmaschen überstiegen 2024 2,5 Milliarden Dollar, wobei ältere Opfer besonders ins Visier genommen wurden.
Verwandte Artikel
Conduent/SafePay ransomware leak exposes up to 25M U.S. residents' records
Connecticut probe expands to 20 defendants in DraftKings identity‑theft scheme totaling ~$190,000