Betrüger nutzen KI‑Stimmenklonen, um dringende Voicemails zu erstellen, die sich als Angehörige ausgeben und sofortige Überweisungen verlangen. The Guardian warnt die Hörer, innezuhalten, über bekannte Kontaktwege zu verifizieren und familiäre Codewörter einzuführen, um Vishing‑Angriffe zu verhindern.

The Guardian berichtet von einem starken Anstieg KI‑gestützter Stimmklone, die verwendet werden, um glaubwürdige Voicemail‑Appelle für Notfallgelder zu erstellen, oft indem Kinder oder andere Verwandte nachgeahmt werden. Kriminelle können aus nur wenigen Sekunden Audio, die aus Voicemail‑Begrüßungen, Social‑Media‑Beiträgen oder Videos entnommen wurden, einen verwendbaren Stimmklon zusammenstellen und dann überzeugende Nachrichten liefern, die die Opfer zu sofortigen Geldüberweisungen drängen. Der Artikel skizziert praktische Vorsichtsmaßnahmen: personalisierte Voicemail‑Begrüßungen entfernen oder durch generische Nachrichten ersetzen, familiespezifische Codewörter und Verifizierungsroutinen einrichten und immer eine gespeicherte Nummer zurückrufen, statt auf die Nachricht zu antworten. Er betont, dass Angreifer Social Engineering mit KI‑Werkzeugen kombinieren, um Vertrauen und Dringlichkeit zu eskalieren, und so Vishing‑Kampagnen schaffen, die schwerer zu erkennen sind. Der Beitrag hebt auch die emotionale Belastung für Familien hervor und die Notwendigkeit, dass Technologieunternehmen und Strafverfolgungsbehörden Erkennungs‑ und Reaktionsmaßnahmen anpassen. Einfache Verhaltens‑ und Verifikationsmaßnahmen werden als der effektivste unmittelbare Schutz für potenzielle Opfer hervorgehoben.