FBI gibt dringende Warnung vor KI-Stimmenklon-Betrügereien heraus - 27. November 2025
Kriminelle nutzen KI, um die Stimmen von geliebten Menschen zu klonen, und fordern dringende Zahlungen für fingierte Notfälle.
Das FBI hat eine dringende Warnung vor einem Anstieg von KI-gestützten Voice‑Cloning‑Betrügereien herausgegeben, die Familien in ganz Amerika ins Visier nehmen. Kriminelle sammeln Sprachproben aus Social‑Media‑Videos und nutzen fortschrittliche KI‑Werkzeuge, um überzeugende Klone zu erstellen. Opfer erhalten panikverursachende Anrufe von dem, was genau wie ihre Kinder oder Enkel klingt und behauptet, sie seien im Gefängnis, im Krankenhaus oder im Ausland gestrandet und bräuchten sofortige Geldüberweisungen. „Die Technologie ist so ausgereift geworden, dass selbst nahe Familienmitglieder die gefälschte Stimme nicht von der echten unterscheiden können“, erklärte die Cyber Division des FBI. Experten empfehlen dringend, ein geheimes familiäres Codewort für Notfälle festzulegen, das nur Familienmitglieder kennen. Die Verluste durch diese KI‑gestützten Betrugsmaschen überstiegen 2024 2,5 Milliarden Dollar, wobei ältere Opfer besonders ins Visier genommen wurden.
Verwandte Artikel
Missouri home‑health owner pleads guilty to more than $209,000 in Medicaid and VA billing fraud
Georgia resident sentenced to over four years for scheme to steal federal employees’ Thrift Savings Plan funds