Investigación de McAfee: Los estafadores usan clonación de voz con IA para suplantar a familiares y ejecutivos en estafas de vishing
Una investigación de McAfee a mediados de noviembre de 2025 encontró que los estafadores usan cada vez más herramientas de clonación de voz con IA para producir breves y convincentes imitaciones de audio de familiares o directivos y ejecutar fraudes por teléfono y mensajes de voz, a menudo instando a las víctimas a enviar pagos no rastreables. El informe advierte que de tres a diez segundos de audio pueden ser suficientes para crear un clon eficaz y que los incidentes registrados con frecuencia implican solicitudes de tarjetas regalo, criptomonedas o transferencias bancarias.
Una investigación del sector publicada por McAfee a mediados de noviembre de 2025 documenta un marcado aumento en el uso de tecnologías de clonación de voz con IA por parte de estafadores que llevan a cabo vishing y estafas por buzón de voz. El análisis muestra que las herramientas modernas de clonación pueden generar muestras de audio breves y plausiblemente convincentes a partir de tan solo tres a diez segundos de habla original, lo que permite a los estafadores suplantar a familiares, directivos de empresa o contactos de confianza y presionar a las víctimas para que realicen pagos rápidos e irreversibles. Las solicitudes fraudulentas típicas reflejan tendencias de larga data: peticiones de tarjetas regalo, transferencias en criptomonedas o transferencias bancarias inmediatas, porque esos canales son difíciles de rastrear o revertir. El informe de McAfee combina datos de encuestas, investigaciones de incidentes y pruebas técnicas para explicar cómo las cadenas de herramientas de IA fácilmente disponibles rebajan el umbral para producir falsificaciones de voz realistas y cómo los estafadores integran audios clonados en campañas multicanal que incluyen suplantación de identificador de llamadas y mensajes de phishing. La investigación recomienda defensas en capas: políticas de autenticación que no se basen únicamente en la voz, protocolos organizativos explícitos para solicitudes de pago, campañas de concienciación pública y una denuncia más rápida a las fuerzas del orden y a los socios de infraestructuras críticas para desarticular a los delincuentes que explotan las capacidades de la IA.