Polícia de Kuala Lumpur alerta para golpe de clonagem de voz por IA de 'chamada silenciosa' usando clipes de 3–5 segundos
As autoridades de Kuala Lumpur alertaram sobre um golpe de 'chamada silenciosa' em que golpistas coletam amostras breves de voz e usam clonagem de voz por IA para se passar por parentes e exigir transferências urgentes. A polícia orientou a não falar primeiro com chamadores desconhecidos, verificar pedidos por canais separados e limitar o áudio pessoal compartilhado online.
Em 12 de dezembro de 2025, a polícia de Kuala Lumpur emitiu um alerta sobre um novo golpe de "chamada silenciosa" que arma clonagem de voz por IA. Investigadores descreveram um padrão em que fraudadores solicitam ou coletam trechos curtos de áudio — frequentemente apenas três a cinco segundos — e os inserem em ferramentas de síntese de voz para criar chamadas impostoras convincentes. Os golpistas então fazem ligações com tom de urgência para parentes ou associados, personificando uma voz de confiança e pressionando as vítimas a transferirem fundos imediatamente ou fornecerem informações de pagamento. As autoridades alertaram que a abordagem reduz a necessidade de áudio extenso e pode escalar rapidamente via mídias sociais ou coleta de mensagens de voz. Precauções recomendadas incluem não falar primeiro com chamadores desconhecidos, fazer perguntas que somente o contato real saberia responder, verificar solicitações por canais alternativos conhecidos, usar bloqueadores de chamadas e filtros de spam, e minimizar conteúdo de voz ou pessoal disponível publicamente online. O aviso enfatiza a importância de educação pública rápida para neutralizar uma técnica que explora avanços em modelos generativos de áudio.
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database