Berichte warnen vor einem Anstieg an KI-generierten Audio-Betrügereien, bei denen Betrüger die Stimmen von Angehörigen klonen, um fingierte familiäre Notfälle zu inszenieren und Opfer unter Druck zu setzen, Geld zu schicken. Experten sagen, dass synthetische Stimmen die Dringlichkeit und Glaubwürdigkeit klassischer Notfallbetrügereien beschleunigen und das Ausmaß sowie die Geschwindigkeit der Erpressung vergrößern.

Behörden und Branchenexperten schlagen Alarm wegen eines wachsenden Trends bei Stimmklon-Betrug, bei dem KI-generierte Audioaufnahmen verwendet werden, um Verwandte zu imitieren und gefälschte familiäre Notfallszenarien zu konstruieren. Betrüger beschaffen sich kurze Stimmproben, synthetisieren überzeugende Sprache und kontaktieren Ziele mit der Behauptung eines dringenden Geldbedarfs – zum Beispiel gefälschte Arztrechnungen, rechtliche Probleme oder Reise-Notfälle – und erhöhen so den Druck auf die Opfer, sofort Geld zu überweisen. Die Taktik reaktiviert ein langjähriges Notfall-Betrugs-Schema, nutzt jedoch synthetische Audios, um einige Verifikationsschritte zu umgehen, wodurch die Täuschung selbst für technikaffine Zuhörer glaubwürdiger wirkt. Forscher warnen, dass die Technologie die Zeit und den Aufwand zur Durchführung von Betrügereien reduziert und Angriffe in größerem Umfang ermöglicht, während Abwehrmaßnahmen wie Multi-Faktor-Verifizierung und Rückrufprotokolle weiterhin wirksame Gegenmaßnahmen bleiben. Verbraucherhinweise empfehlen, den behaupteten Notfall über sekundäre Kanäle zu verifizieren, andere Familienmitglieder zu kontaktieren und unerwartete Bitten um sofortige Zahlungen mit Skepsis zu behandeln. Finanzinstitute und Plattformen werden zudem aufgefordert, Verhaltens- und Transaktionsüberwachungstools einzusetzen, um atypische Überweisungen zu erkennen, die auf erzwungene Zahlungen hindeuten könnten.