Pesquisa da TechRadar e análises de especialistas mostram que cerca de 25% dos americanos receberam chamadas com vozes sintetizadas nos últimos 12 meses, indicando crescimento rápido de ataques de engenharia social por voz. Especialistas alertam que modelos generativos e ferramentas de clonagem vocal estão sendo usados para escalar fraudes por impersonação, aumentando riscos para idosos e alvos de alto valor.

Dados de uma pesquisa reportada pela TechRadar indicam que chamadas telefônicas com vozes deepfake e sintéticas atingiram um ponto de inflexão nos Estados Unidos: aproximadamente um em cada quatro entrevistados disse ter recebido, no último ano, chamadas com vozes convincente‑mente clonadas. Pesquisadores e analistas citados na matéria explicam que modelos generativos e ferramentas de clonagem de voz amplamente disponíveis permitem que atacantes produzam rapidamente imitações realistas de parentes, executivos ou autoridades públicas, e as utilizem em golpes com tom de emergência para extrair dinheiro, códigos de autenticação ou informações privilegiadas. O texto descreve como criminosos combinam áudio clonado com detalhes pessoais coletados em redes sociais para montar fraudes altamente persuasivas a baixo custo marginal, ressaltando o risco particular a idosos e pessoas isoladas. A cobertura da TechRadar também resume pedidos de especialistas por defesas em camadas, incluindo verificação de identificação de chamadas mais robusta, colaboração entre setores para detecção de mídias sintéticas, campanhas públicas de conscientização e maior escrutínio regulatório sobre modelos de IA e plataformas de hospedagem. O artigo enquadra os deepfakes como um acelerador de modalidades de fraude já existentes, elevando desafios tanto para a aplicação da lei quanto para a proteção do consumidor.