Estudio: fraude con deepfakes ocurre a escala industrial, según AI Incident Database
Un análisis de la AI Incident Database revela que estafas con deepfake en audio y video se están expandiendo a escala industrial, permitiendo suplantaciones muy creíbles para obtener beneficios. Expertos advierten que herramientas de IA accesibles han reducido costos y permitido mayor personalización, aumentando los riesgos para empresas y consumidores.
Un nuevo análisis basado en la AI Incident Database y en reportes de The Guardian concluye que el fraude habilitado por deepfakes se está proliferando a escala industrial, posibilitando suplantaciones altamente verosímiles tanto en audio como en video. El estudio documenta una amplia gama de estafas: desde imitaciones de la voz de directores generales utilizadas para autorizar transferencias fraudulentas, hasta falsos profesionales médicos y simulaciones de interacciones con servicio al cliente, que han provocado pérdidas financieras significativas y daños reputacionales. Investigadores y expertos en ciberseguridad advierten que herramientas de IA disponibles comercialmente han reducido drásticamente las barreras técnicas y económicas para producir falsificaciones multimedia convincentes, incrementando tanto el volumen como la sofisticación de los ataques dirigidos. El informe destaca cómo la personalización facilita vectores de ingeniería social con mayor tasa de éxito, difuminando la línea entre contenido automatizado e interacción humana. Entre las recomendaciones se incluyen prácticas de autenticación más robustas, verificación multifactor para solicitudes financieras, estándares sectoriales para reportar incidentes e inversión en tecnologías de detección. El análisis enmarca a los deepfakes como una amenaza en ascenso que intersecta fraude, ciberseguridad e integridad informativa, y subraya la urgencia de medidas defensivas coordinadas entre empresas y reguladores.