Uno de cada cuatro estadounidenses recibe llamadas con voces deepfake mientras aumentan las estafas impulsadas por IA
Una encuesta de TechRadar revela que aproximadamente el 25% de los estadounidenses recibieron llamadas con voces clonadas en los últimos 12 meses, indicando un punto de inflexión en los ataques de ingeniería social basados en audio sintético. Expertos advierten que los modelos generativos y las herramientas de clonación vocal disponibles masivamente permiten escalar estafas de suplantación de voz, con especial riesgo para ancianos y objetivos de alto valor.
Datos recientes citados por TechRadar muestran que las llamadas con voces deepfake y audio sintético han alcanzado una tasa notable en Estados Unidos: cerca de uno de cada cuatro encuestados declaró haber recibido en el último año llamadas con voces convincentemente clonadas. Analistas e investigadores en incidentes de IA explican que los modelos generativos y las herramientas de clonación vocal accesibles permiten a los atacantes producir rápidamente imitaciones realistas de familiares, directivos de empresas o funcionarios públicos, y luego emplearlas en estafas con formato de emergencia para obtener dinero, códigos de autenticación o información privilegiada. El reportaje detalla cómo los defraudadores combinan audio clonado con datos sociales recopilados en redes para construir engaños altamente persuasivos a muy bajo coste marginal, amplificando la eficacia de fraudes ya existentes. Los especialistas subrayan el impacto concreto sobre personas mayores y aisladas, quienes son más vulnerables a reaccionar ante llamadas que aparentan urgencia o autoridad. Frente a esta tendencia, los expertos piden defensas en capas: verificación más robusta del identificador de llamadas, colaboración entre industrias para detectar medios sintéticos, campañas públicas de concienciación y mayor escrutinio regulatorio sobre modelos de IA y plataformas de alojamiento. El artículo presenta a los deepfakes como un acelerador de modalidades de fraude preexistentes, lo que complica tanto la labor de las fuerzas de orden como la protección del consumidor.
What this article means for a user right now
Una encuesta de TechRadar revela que aproximadamente el 25% de los estadounidenses recibieron llamadas con voces clonadas en los últimos 12 meses, indicando un punto de inflexión en los ataques de ingeniería social basados en audio sintético. Expertos advierten que los modelos generativos y las herramientas de clonación vocal disponibles masivamente permiten escalar estafas de suplantación de voz, con especial riesgo para ancianos y objetivos de alto valor.
- Scam Detector: For mixed scam inputs such as messages, files, screenshots, links, and fake shops.
- How StopScam Works: For the product path from first web check to ongoing mobile protection.