Investigación de McAfee: Los estafadores usan clonación de voz con IA para suplantar a familiares y ejecutivos en estafas de vishing
Una investigación de McAfee a mediados de noviembre de 2025 encontró que los estafadores usan cada vez más herramientas de clonación de voz con IA para producir breves y convincentes imitaciones de audio de familiares o directivos y ejecutar fraudes por teléfono y mensajes de voz, a menudo instando a las víctimas a enviar pagos no rastreables. El informe advierte que de tres a diez segundos de audio pueden ser suficientes para crear un clon eficaz y que los incidentes registrados con frecuencia implican solicitudes de tarjetas regalo, criptomonedas o transferencias bancarias.
Una investigación del sector publicada por McAfee a mediados de noviembre de 2025 documenta un marcado aumento en el uso de tecnologías de clonación de voz con IA por parte de estafadores que llevan a cabo vishing y estafas por buzón de voz. El análisis muestra que las herramientas modernas de clonación pueden generar muestras de audio breves y plausiblemente convincentes a partir de tan solo tres a diez segundos de habla original, lo que permite a los estafadores suplantar a familiares, directivos de empresa o contactos de confianza y presionar a las víctimas para que realicen pagos rápidos e irreversibles. Las solicitudes fraudulentas típicas reflejan tendencias de larga data: peticiones de tarjetas regalo, transferencias en criptomonedas o transferencias bancarias inmediatas, porque esos canales son difíciles de rastrear o revertir. El informe de McAfee combina datos de encuestas, investigaciones de incidentes y pruebas técnicas para explicar cómo las cadenas de herramientas de IA fácilmente disponibles rebajan el umbral para producir falsificaciones de voz realistas y cómo los estafadores integran audios clonados en campañas multicanal que incluyen suplantación de identificador de llamadas y mensajes de phishing. La investigación recomienda defensas en capas: políticas de autenticación que no se basen únicamente en la voz, protocolos organizativos explícitos para solicitudes de pago, campañas de concienciación pública y una denuncia más rápida a las fuerzas del orden y a los socios de infraestructuras críticas para desarticular a los delincuentes que explotan las capacidades de la IA.
What this article means for a user right now
Una investigación de McAfee a mediados de noviembre de 2025 encontró que los estafadores usan cada vez más herramientas de clonación de voz con IA para producir breves y convincentes imitaciones de audio de familiares o directivos y ejecutar fraudes por teléfono y mensajes de voz, a menudo instando a las víctimas a enviar pagos no rastreables. El informe advierte que de tres a diez segundos de audio pueden ser suficientes para crear un clon eficaz y que los incidentes registrados con frecuencia implican solicitudes de tarjetas regalo, criptomonedas o transferencias bancarias.
- Spam Call Blocker: For suspicious callers, callback decisions, robocalls, and voice scam pressure.
- Phishing Link Checker: For suspicious links, login pages, fake delivery texts, and scam emails.
Estafas relacionadas
Siguiente paso
Recursos oficiales
Industry anti-phishing organization with reporting and education resources.
FTC Consumer AdviceUS consumer guidance for scams, fraud patterns, and reporting options.
FBI Internet Crime Complaint CenterOfficial reporting channel for internet-enabled crime in the United States.