'Socorro! Preciso de dinheiro' Golpes de recados de voz clonados por IA miram famílias do Reino Unido
Pesquisadores de segurança e repórteres alertam sobre uma onda crescente de golpes de emergência com vozes clonadas por IA que sintetizam vozes de crianças a partir de clipes de áudio curtos. O artigo do The Guardian explica como criminosos podem criar facilmente mensagens de voz urgentes convincentes e recomenda passos de verificação para evitar fraudes movidas pela emoção.
Reportagem investigativa no The Guardian documenta um aumento nos golpes com voz clonada por IA, nos quais criminosos usam apenas alguns segundos de áudio gravado — obtidos em postagens de redes sociais, pequenos trechos de chamadas ou vídeos públicos — para sintetizar a voz de um ente querido e deixar mensagens de voz urgentes pedindo dinheiro. A matéria resume entrevistas com vítimas, defensores do consumidor e pesquisadores de segurança que dizem que a técnica é rápida, barata e alarmantemente eficaz em provocar respostas instinctivas de familiares. Repórteres descrevem a isca típica: um tom de urgência, um cenário de emergência fabricado e instruções para enviar dinheiro imediatamente por transferência bancária, aplicativos de pagamento ou cartões-presente. O artigo apresenta medidas práticas de verificação para reduzir danos: retornar a chamada para a pessoa em um número conhecido, estabelecer uma palavra-código predefinida para emergências, verificar pedidos incomuns com vários membros da família e contatar bancos ou plataformas antes de enviar fundos. Também pede que plataformas e autoridades priorizem a detecção e a remoção rápida de áudios sintéticos usados em campanhas de fraude ativas.
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database