Les forces de l'ordre à Kuala Lumpur ont mis en garde contre une arnaque de « silent call » dans laquelle des escrocs récoltent de brefs échantillons vocaux et utilisent le clonage vocal par IA pour se faire passer pour des proches et exiger des transferts urgents. La police a conseillé de ne pas parler en premier aux appelants inconnus, de vérifier les demandes par des canaux séparés et de limiter les extraits audio personnels partagés en ligne.

Le 12 décembre 2025, la police de Kuala Lumpur a émis une alerte au sujet d'une nouvelle arnaque de « appel silencieux » qui arme le clonage vocal par IA. Les enquêteurs ont décrit un schéma dans lequel des fraudeurs sollicitent ou récupèrent de courts extraits audio — souvent seulement trois à cinq secondes — et les injectent dans des outils de synthèse vocale pour créer des appels d'imposteur convaincants. Les escrocs passent ensuite des appels au ton urgent aux proches ou aux associés, usurpant une voix de confiance et mettant la victime sous pression pour transférer immédiatement des fonds ou fournir des informations de paiement. Les autorités ont averti que cette approche réduit le besoin d'un vaste répertoire audio et peut se développer rapidement via les réseaux sociaux ou la récolte de messages vocaux. Les précautions recommandées incluent : ne pas parler en premier à des appelants inconnus, poser des questions que seul le véritable contact pourrait répondre, vérifier les demandes par des canaux alternatifs connus, utiliser le blocage d'appels et les filtres anti‑spam, et limiter la diffusion en ligne de contenus vocaux ou personnels. L'avis souligne l'importance d'une éducation publique rapide pour réduire l'impact d'une technique qui exploite les avancées des modèles génératifs audio.