O AI Hub da McAfee relata que ferramentas de clonagem de voz disponíveis ao consumidor estão possibilitando uma onda de golpes convincentes do tipo "neto em apuros" e parente precisando de ajuda, com muitas pessoas incapazes de distinguir de forma confiável vozes clonadas da voz verdadeira. A análise alerta que criminosos estão usando esse tipo de áudio em operações de vishing e smishing para extrair cartões-presente, transferências ou cripto, criando urgência e contornando a verificação normal.

A análise da McAfee e pesquisas relacionadas do setor documentam um aumento acentuado no uso indevido da clonagem de voz, à medida que ferramentas de IA baratas produzem imitações de áudio realistas de familiares e contatos próximos. Pesquisadores constataram que atacantes podem sintetizar gravações curtas com tom emocional e de urgência que persuadem alvos a transferir fundos, aprovar pagamentos ou divulgar credenciais; muitos consumidores e até algumas instituições têm dificuldade em distinguir áudio clonado por IA de gravações autênticas. O relatório destaca padrões comuns de fraude: uma chamada inicial deepfake ou mensagem de voz alegando que um parente está em perigo imediato, pressão subsequente para enviar fundos via cartões-presente, transferências bancárias ou criptomoedas, e artifícios de engenharia social que exploram urgência, confusão e relutância em consultar outras pessoas. A McAfee recomenda defesas em camadas, incluindo políticas de verificação de chamadas de saída, confirmação multifatorial via vídeo ou senhas previamente combinadas, campanhas de conscientização pública e controles de fornecedores para detectar áudio sintético. Partes interessadas do setor pedem que empresas que operam plataformas de comunicação sinalizem fluxos de pagamento incomuns e que reguladores atualizem orientações sobre autenticação por voz. A análise ressalta que a detecção tecnológica e a educação do consumidor devem avançar em conjunto para conter a rápida militarização das ferramentas de síntese de voz.