Golpes de clonagem de voz por IA aumentam enquanto fraudadores imitam vozes de familiares para extorquir dinheiro
Relatórios alertam para um aumento em golpes de áudio gerados por IA, nos quais fraudadores clonam vozes de parentes para encenar falsas emergências familiares e pressionar as vítimas a enviar dinheiro. Especialistas afirmam que vozes sintéticas aceleram a sensação de urgência e a credibilidade dos golpes clássicos de emergência, ampliando a escala e a rapidez da extorsão.
Autoridades e especialistas do setor estão soando o alarme sobre uma tendência crescente de fraude por clonagem de voz que usa áudio gerado por IA para se passar por parentes e criar cenários falsos de emergência familiar. Fraudadores obtêm amostras curtas de voz, sintetizam fala convincente e contatam alvos alegando necessidade urgente de dinheiro — por exemplo, contas médicas falsas, problemas legais ou emergências de viagem — aumentando a pressão sobre as vítimas para transferirem fundos imediatamente. A tática revive um antigo roteiro de golpe de emergência, mas aproveita áudio sintético para contornar algumas etapas de verificação, tornando a enganação mais crível mesmo para ouvintes com conhecimento tecnológico. Pesquisadores alertam que a tecnologia reduz o tempo e o esforço necessários para montar golpes e possibilita ataques em maior escala, enquanto medidas defensivas como verificação multifator e protocolos de retorno continuam sendo contramedidas eficazes. Avisos aos consumidores recomendam verificar a suposta emergência por meio de canais secundários, contatar outros membros da família e tratar pedidos inesperados de pagamento imediato com ceticismo. Instituições financeiras e plataformas também são instadas a implantar ferramentas de monitoramento comportamental e de transações para detectar transferências atípicas que possam indicar pagamentos coagidos.
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database