Experten warnen, dass KI‑Stimmenklonen einen Anstieg von Vishing‑ und Social‑Engineering‑Betrügereien antreibt
Branchenberichte bekräftigen, dass KI-Stimmenklonen zunehmend von Betrügern genutzt wird, um sich in Vishing-Angriffen als Führungskräfte, Verwandte oder Service-Mitarbeiter auszugeben. Obwohl in den letzten 48 Stunden kein einzelner großer Vorfall dominierte, fordern Forschende stärkere Authentifizierung und öffentliche Sensibilisierung.
Sicherheits- und Verbraucherschutzstellen heben weiterhin hervor, dass KI-Stimmenklonen ein zunehmend unterstützender Faktor für Vishing und komplexe Social-Engineering-Betrügereien ist. Berichte von Branchenforschern und Unternehmen wie McAfee betonen, dass kostengünstige, hochrealistische Sprachsynthese-Tools Angreifern erlauben, Führungskräfte, Verwandte oder Support-Mitarbeiter überzeugend zu imitieren, wodurch die Wahrscheinlichkeit steigt, dass Zielpersonen finanziellen oder datenbezogenen Forderungen nachkommen. Zwar wurde in den letzten 48 Stunden kein einzelner prominenter Vorfall mit Stimmenklonen neu gemeldet, doch beschleunigt der Trend das Risiko in allen Sektoren: Unternehmensfinanzteams sehen sich CEO-Betrug ausgesetzt, der als realistische Sprachaufforderungen erfolgt, Familien erhalten Anrufe, die angeblich von in Not geratenen Angehörigen stammen, und auf Stimmabdrücken basierende Authentifizierungssysteme von Callcentern zeigen Schwachstellen. Empfohlene Gegenmaßnahmen umfassen die Einführung von Multi-Faktor- und Out-of-Band-Verifizierungen für Finanzanfragen, Schulungen des Personals, unaufgeforderte Stimmbestätigungen skeptisch zu behandeln, sowie die Verwendung von Challenge-Response-Phrasen oder Rückrufverfahren. Anbieter und Regulierungsbehörden werden zudem aufgefordert, Erkennungstools, Wasserzeichen für synthetische Audiodateien und öffentliche Leitlinien zu verbessern, um die Wirksamkeit von Stimmenklon-Betrügereien zu verringern. (Quelle: McAfee-Analyse und Branchenberichterstattung, 2025)
Verwandte Betrugsarten
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database