Los estafadores están utilizando la clonación de voz mediante IA para producir mensajes de voz urgentes que se hacen pasar por familiares y exigen transferencias inmediatas. The Guardian advierte a los oyentes que se detengan, verifiquen mediante métodos de contacto conocidos y adopten palabras clave familiares para prevenir ataques de vishing.

The Guardian informa de un fuerte aumento en la clonación de voz habilitada por IA utilizada para elaborar apelaciones convincentes por mensaje de voz solicitando fondos de emergencia, a menudo suplantando a niños u otros familiares. Los delincuentes pueden ensamblar una clonación de voz utilizable con solo unos segundos de audio obtenidos de saludos de buzón de voz, publicaciones en redes sociales o vídeos, y luego emitir mensajes persuasivos que presionan a las víctimas para que realicen transferencias de dinero al instante. El artículo describe precauciones prácticas: eliminar o reemplazar los saludos personalizados del buzón de voz por mensajes genéricos, establecer palabras clave y rutinas de verificación específicas de la familia, y siempre devolver la llamada a un número guardado en lugar de responder al mensaje. Subraya que los atacantes combinan ingeniería social con herramientas de IA para aumentar la confianza y la sensación de urgencia, creando campañas de vishing que son más difíciles de detectar. La pieza también destaca el impacto emocional en las familias y la necesidad de que las empresas tecnológicas y las fuerzas del orden adapten las medidas de detección y respuesta. Se enfatiza que las defensas conductuales simples y las prácticas de verificación son la protección inmediata más eficaz para las posibles víctimas.