Los informes de la industria reiteran que la clonación de voz con IA se utiliza cada vez más por estafadores para suplantar a ejecutivos, familiares o agentes de servicio en ataques de vishing. Aunque ningún incidente importante único dominó las últimas 48 horas, los investigadores instan a reforzar la autenticación y la concienciación pública.

Los medios y organismos de protección al consumidor continúan destacar la clonación de voz por IA como un facilitador creciente del vishing y de fraudes complejos de ingeniería social. Informes de investigadores de la industria y empresas como McAfee enfatizan que herramientas económicas de síntesis de voz de alta fidelidad permiten a los atacantes imitar de forma convincente a directivos, familiares o agentes de soporte, aumentando la probabilidad de que las víctimas accedan a solicitudes de dinero o datos. Aunque no se reportó un único incidente de clonación de voz de alto perfil en la ventana más reciente de 48 horas, la tendencia acelera el riesgo en todos los sectores: los equipos financieros corporativos enfrentan fraude al director general entregado mediante indicaciones de voz realistas, las familias reciben llamadas que dicen ser de parientes en apuros y los sistemas de autenticación de centros de llamadas basados en huellas de voz muestran vulnerabilidades. Las mitigaciones recomendadas incluyen adoptar verificación multifactor y fuera de banda para solicitudes financieras, capacitar al personal para tratar con escepticismo las confirmaciones de voz no solicitadas y usar frases de desafío-respuesta o procedimientos de devolución de llamada. También se insta a proveedores y reguladores a mejorar las herramientas de detección, el marcaje (watermarking) del audio sintético y la orientación pública para reducir la efectividad de las estafas con voces clonadas. (Fuente: análisis de McAfee y cobertura de la industria, 2025)