Mensagem de voz clonada por IA imita criança com 'Socorro! Preciso de dinheiro' — The Guardian 21 de dez. de 2025
Golpistas estão usando clonagem de voz por IA para produzir mensagens de voz urgentes que se passam por parentes e exigem transferências imediatas. The Guardian alerta os ouvintes para pausar, verificar por meios de contato conhecidos e adotar palavras-código familiares para prevenir ataques de vishing.
The Guardian relata um forte aumento no uso de clonagem de voz habilitada por IA para criar apelos convincentes por correio de voz solicitando fundos de emergência, frequentemente personificando crianças ou outros parentes. Criminosos podem montar um clone de voz utilizável a partir de apenas alguns segundos de áudio coletados de saudações de correio de voz, postagens em redes sociais ou vídeos, e então entregar mensagens persuasivas que pressionam as vítimas a fazer transferências de dinheiro instantâneas. O artigo descreve precauções práticas: remover ou substituir saudações personalizadas de correio de voz por mensagens genéricas, estabelecer palavras‑código e rotinas de verificação específicas da família, e sempre ligar de volta para um número salvo em vez de responder à mensagem. Enfatiza que atacantes combinam engenharia social com ferramentas de IA para aumentar confiança e urgência, criando campanhas de vishing que são mais difíceis de detectar. A matéria também destaca o impacto emocional nas famílias e a necessidade de empresas de tecnologia e forças de segurança adaptarem medidas de detecção e resposta. Defesas comportamentais simples e práticas de verificação são ressaltadas como a proteção imediata mais eficaz para potenciais vítimas.
Golpes relacionados
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database