Die Strafverfolgungsbehörden in Kuala Lumpur warnten vor einem „silent call“-Betrug, bei dem Betrüger kurze Sprachproben sammeln und KI‑Stimmenklonung verwenden, um sich als Angehörige auszugeben und dringende Überweisungen zu verlangen. Die Polizei riet, nicht von unbekannten Anrufern anzufangen zu sprechen, Anfragen über getrennte Kanäle zu verifizieren und die online geteilten persönlichen Audioaufnahmen zu begrenzen.

Am 12. Dezember 2025 gab die Polizei von Kuala Lumpur eine Warnung vor einem aufkommenden „Silent‑Call“-Betrug heraus, der KI‑Stimmenklonen einsetzt. Ermittler beschrieben ein Muster, bei dem Betrüger kurze Audioausschnitte – oft nur drei bis fünf Sekunden – anfordern oder abschöpfen und diese in Stimm­synthese‑Tools einspeisen, um überzeugende Fake‑Anrufe zu erzeugen. Die Betrüger führen dann dringlich klingende Anrufe an Verwandte oder Bekannte, geben sich als vertraute Stimme aus und üben Druck auf die Opfer aus, sofort Geld zu überweisen oder Zahlungsinformationen herauszugeben. Die Behörden warnten, dass der Ansatz den Bedarf an umfangreichem Audio reduziert und sich schnell über soziale Medien oder das Abgreifen von Voicemails skalieren lässt. Empfohlene Vorsichtsmaßnahmen umfassen, bei unbekannten Anrufern nicht zuerst zu sprechen, nur Fragen zu stellen, die nur der echte Kontakt beantworten könnte, Anfragen über alternative bekannte Kanäle zu verifizieren, Anrufblocker und Spam‑Filter zu verwenden und öffentlich verfügbare Sprach‑ oder personenbezogene Inhalte im Internet zu minimieren. Die Mitteilung betont die schnelle Aufklärung der Öffentlichkeit, um einer Technik entgegenzuwirken, die sich die Fortschritte generativer Audiomodelle zunutze macht.