Relatórios alertam para um aumento em golpes de áudio gerados por IA, nos quais fraudadores clonam vozes de parentes para encenar falsas emergências familiares e pressionar as vítimas a enviar dinheiro. Especialistas afirmam que vozes sintéticas aceleram a sensação de urgência e a credibilidade dos golpes clássicos de emergência, ampliando a escala e a rapidez da extorsão.

Autoridades e especialistas do setor estão soando o alarme sobre uma tendência crescente de fraude por clonagem de voz que usa áudio gerado por IA para se passar por parentes e criar cenários falsos de emergência familiar. Fraudadores obtêm amostras curtas de voz, sintetizam fala convincente e contatam alvos alegando necessidade urgente de dinheiro — por exemplo, contas médicas falsas, problemas legais ou emergências de viagem — aumentando a pressão sobre as vítimas para transferirem fundos imediatamente. A tática revive um antigo roteiro de golpe de emergência, mas aproveita áudio sintético para contornar algumas etapas de verificação, tornando a enganação mais crível mesmo para ouvintes com conhecimento tecnológico. Pesquisadores alertam que a tecnologia reduz o tempo e o esforço necessários para montar golpes e possibilita ataques em maior escala, enquanto medidas defensivas como verificação multifator e protocolos de retorno continuam sendo contramedidas eficazes. Avisos aos consumidores recomendam verificar a suposta emergência por meio de canais secundários, contatar outros membros da família e tratar pedidos inesperados de pagamento imediato com ceticismo. Instituições financeiras e plataformas também são instadas a implantar ferramentas de monitoramento comportamental e de transações para detectar transferências atípicas que possam indicar pagamentos coagidos.