La policía en Kuala Lumpur advirtió sobre una estafa de "llamada silenciosa" en la que los estafadores recopilan breves muestras de voz y usan clonación de voz por IA para hacerse pasar por familiares y exigir transferencias urgentes. La policía aconsejó no hablar primero con llamantes desconocidos, verificar las solicitudes por canales separados y limitar el audio personal compartido en línea.

El 12 de diciembre de 2025, la policía de Kuala Lumpur emitió una alerta sobre una emergente estafa de "llamada silenciosa" que utiliza la clonación de voz por IA como arma. Los investigadores describieron un patrón en el que los estafadores solicitan o extraen fragmentos de audio cortos—a menudo de solo tres a cinco segundos—y los introducen en herramientas de síntesis de voz para crear llamadas impostoras convincentes. Los timadores luego realizan llamadas con tono de urgencia a familiares o asociados, suplantando una voz de confianza y presionando a las víctimas para que transfieran fondos inmediatamente o proporcionen información de pago. Las autoridades advirtieron que el método reduce la necesidad de audio extenso y puede escalar rápidamente mediante redes sociales o la recolección de mensajes de voz. Las precauciones recomendadas incluyen no hablar primero con llamantes desconocidos, hacer preguntas que solo la persona real podría responder, verificar las solicitudes a través de canales alternativos conocidos, usar bloqueo de llamadas y filtros anti‑spam, y minimizar el contenido de voz o personal disponible públicamente en línea. El comunicado enfatiza la necesidad de una educación pública rápida para contrarrestar una técnica que explota los avances en modelos generativos de audio.