KI‑kopierte Voicemail: ‘Help! I need money’-Notrufe zielen auf Familien in Großbritannien und den USA
Reporter und Sicherheitsexperten warnen, dass KI‑Stimmenklonen hochgradig überzeugende Notfallsprachnachrichten ermöglicht, die Kinder oder Verwandte nachahmen, um Familienmitglieder unter Druck zu setzen, schnell Geld zu schicken. Der Beitrag rät, innezuhalten, die Person unter einer bekannten Nummer zurückzurufen oder vorab vereinbarte Codewörter zu verwenden, und warnt davor, per Geschenkkarten, Banküberweisungen oder Kryptowährungen zu bezahlen.
Journalisten und Cybersicherheitsspezialisten beschreiben einen raschen Anstieg sogenannter „hey‑kid“- und Großeltern‑Betrügereien, die durch KI‑Stimmenklonen ermöglicht werden, bei denen Betrüger aus nur wenigen Sekunden Audio glaubwürdige Nachahmungen erzeugen. Angreifer setzen diese synthetischen Schnipsel in Voicemails und Live‑Anrufen ein, um emotional dringliche Erzählungen zu schaffen – ein Kind gestrandet, ein Verwandter im Krankenhaus oder ein gesperrtes Konto – und Geld zu erpressen, bevor die Opfer verifizieren können. Die Technologie verringert die Zeit und das Können, die früher nötig waren, um eine vertraute Person zu imitieren, und wird in Großbritannien und den USA gemeldet, was lokale Warnmeldungen und Branchenhinweise auslöst. Die Berichterstattung betont einfache Verifikationsschritte: innehalten und zurückrufen unter einer Nummer, von der Sie wissen, dass sie echt ist, vorab vereinbarte Codewörter oder Phrasen verwenden und niemals sofortigen Zahlungsforderungen nachkommen, die auf Geschenkkarten, Überweisungen oder Kryptowährungen bestehen. Sie hebt auch hervor, wie kriminelle Marktplätze und soziale Plattformen das Teilen von Stimmenklon‑Tools und Audiodateien beschleunigen, und fordert Verbraucherbildung sowie schnelle Meldung an Behörden, um finanziellen und emotionalen Schaden zu begrenzen.
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database