'Hilfe! Ich brauche Geld' KI-geklonte Voicemail-Betrügereien richten sich gegen britische Familien
Sicherheitsforscher und Reporter warnen vor einer zunehmenden Welle von Notfallbetrugsversuchen mit KI‑kopierten Stimmen, bei denen aus kurzen Audioclips Kinderstimmen synthetisiert werden. Der Artikel in The Guardian erklärt, wie leicht Kriminelle überzeugende dringende Sprachnachrichten erstellen können, und empfiehlt Verifikationsschritte, um emotional getriebenen Betrug zu vermeiden.
Investigative reporting in The Guardian dokumentiert einen Anstieg von Betrugsmaschen mit KI‑geklonten Stimmen, bei denen Betrüger nur wenige Sekunden aufgezeichneter Audiodaten — aus Social‑Media‑Posts, kurzen Anruf‑Schnipseln oder öffentlichen Videos entnommen — verwenden, um die Stimme eines Angehörigen zu synthetisieren und dringende Sprachnachrichten zu hinterlassen, in denen sie um Geld flehen. Der Beitrag fasst Interviews mit Opfern, Verbraucherschützern und Sicherheitsforschern zusammen, die sagen, die Technik sei schnell, billig und alarmierend effektiv darin, instinktive Reaktionen bei Familienmitgliedern auszulösen. Reporter beschreiben typische Köder: ein dringender Tonfall, ein erfundenes Notfallszenario und Anweisungen, sofort Geld per Überweisung, Zahlungs‑Apps oder Geschenkkarten zu senden. Der Artikel skizziert praktische Verifikationsmaßnahmen zur Schadensminderung: die Person unter einer bekannten Nummer zurückrufen, ein zuvor vereinbartes Codewort für Notfälle festlegen, ungewöhnliche Anfragen mit mehreren Familienmitgliedern abklären und vor dem Senden von Geld Banken oder Plattformen kontaktieren. Er fordert außerdem Plattformen und Strafverfolgungsbehörden auf, die Erkennung und rasche Entfernung synthetischer Audiodateien, die in aktiven Betrugskampagnen verwendet werden, zu priorisieren.