Kriminelle nutzen KI, um die Stimmen von geliebten Menschen zu klonen, und fordern dringende Zahlungen für fingierte Notfälle.

Das FBI hat eine dringende Warnung vor einem Anstieg von KI-gestützten Voice‑Cloning‑Betrügereien herausgegeben, die Familien in ganz Amerika ins Visier nehmen. Kriminelle sammeln Sprachproben aus Social‑Media‑Videos und nutzen fortschrittliche KI‑Werkzeuge, um überzeugende Klone zu erstellen. Opfer erhalten panikverursachende Anrufe von dem, was genau wie ihre Kinder oder Enkel klingt und behauptet, sie seien im Gefängnis, im Krankenhaus oder im Ausland gestrandet und bräuchten sofortige Geldüberweisungen. „Die Technologie ist so ausgereift geworden, dass selbst nahe Familienmitglieder die gefälschte Stimme nicht von der echten unterscheiden können“, erklärte die Cyber Division des FBI. Experten empfehlen dringend, ein geheimes familiäres Codewort für Notfälle festzulegen, das nur Familienmitglieder kennen. Die Verluste durch diese KI‑gestützten Betrugsmaschen überstiegen 2024 2,5 Milliarden Dollar, wobei ältere Opfer besonders ins Visier genommen wurden.