Un nuevo análisis muestra que las estafas de suplantación habilitadas por deepfakes se han vuelto baratas, escalables y altamente dirigidas, abarcando desde llamadas de vídeo falsas con ejecutivos hasta respaldos médicos y políticos generados por IA. Investigadores advierten que el audio y el vídeo sintéticos son ahora un vector dominante y de rápido crecimiento para el fraude financiero y los ataques de ingeniería social.

Un análisis y reporte de la AI Incident Database por The Guardian detallan cómo las estafas de suplantación habilitadas por deepfakes han pasado de ser incidentes aislados a operaciones a escala industrial. Los estafadores usan audio y video sintéticos para simular a ejecutivos, médicos y figuras públicas, produciendo interacciones realistas y dirigidas que engañan a las víctimas para que realicen transferencias de alto valor y respalden operaciones. Un caso documentado involucró una videollamada falsa con un ejecutivo que persuadió a un funcionario financiero de Singapur a transferir casi $500,000. Otros ejemplos incluyen respaldos de médicos generados por IA y suplantaciones políticas destinadas a influir en la opinión o desacreditar a individuos. Los investigadores encontraron que estas operaciones son poco costosas de escalar, a menudo están automatizadas y son capaces de producir grandes lotes de contenido verosímil adaptado a víctimas específicas. El informe alerta sobre pérdidas financieras, la erosión de la confianza en los medios grabados y las dificultades para los investigadores, ya que las comprobaciones de verificación estándar se vuelven poco fiables. Los expertos instan a respuestas coordinadas técnicas, de políticas y legales, incluyendo herramientas de detección, estándares de procedencia y una mayor colaboración entre la industria y las fuerzas del orden para frenar el rápido crecimiento de las estafas con medios sintéticos.