Estudio: fraude con deepfakes a 'escala industrial' facilita estafas románticas y suplantación de CFO
Un análisis basado en la AI Incident Database, reportado por The Guardian, constata un rápido aumento de videos y voces clonadas usados en estafas dirigidas a nivel mundial, desde fraudes románticos personalizados hasta suplantaciones de directivos financieros. El informe advierte que herramientas baratas y fáciles de desplegar están impulsando la escala del ataque y predice mayores pérdidas económicas si no mejoran la detección y los controles.
El análisis muestra que el fraude potenciado por deepfakes ha pasado de incidentes aislados a una modalidad de ataque industrializada. El estudio documenta numerosos casos en los que audio y video sintéticos aumentaron materialmente la confianza de las víctimas: fraudes románticos que emplearon videollamadas fabricadas para convencer a sus objetivos y esquemas de suplantación de CFO donde voces clonadas ordenaron transferencias bancarias. Los investigadores subrayan que la democratización de los modelos generativos y la comercialización de herramientas reducen drásticamente la barrera técnica para producir falsificaciones convincentes, permitiendo ingeniería social automatizada y altamente personalizada a gran volumen. El informe también destaca pérdidas financieras documentadas, la dificultad de atribución y el desfase entre la intrusión y la monetización, mientras activos robados o fabricados se blanquean a través de canales complejos. Entre las recomendaciones figuran invertir en estándares de procedencia y autenticación, desarrollar capacidades de detección multiplataforma, reforzar los procesos de verificación en transacciones financieras y promover asociaciones público‑privadas para financiar investigación y compartir inteligencia sobre amenazas. Sin estos controles, alerta el estudio, los delincuentes seguirán ampliando el fraude con deepfakes entre distintos grupos demográficos y sectores.