Une analyse basée sur l'AI Incident Database et un reportage de The Guardian montre une prolifération des arnaques audio/vidéo par deepfakes, alimentant des usurpations d'identité rentables. Les experts alertent que des outils d'IA accessibles ont réduit les coûts et permis une personnalisation accrue, augmentant les risques pour entreprises et consommateurs.

L'analyse documente une large palette d'escroqueries rendues possibles par des deepfakes audio et vidéo très crédibles : usurpations de la voix de dirigeants pour autoriser des virements frauduleux, faux professionnels de santé et interactions client fabriquées, entraînant des pertes financières significatives et des dommages à la réputation. Les chercheurs et spécialistes en cybersécurité soulignent que des outils d'IA prêts à l'emploi ont abaissé les barrières techniques et financières à la création de faux multimédias convaincants, ce qui augmente à la fois le volume et la sophistication des attaques ciblées. Le rapport met en avant le rôle de la personnalisation — messages et contenus adaptés — qui améliore le taux de réussite des techniques d'ingénierie sociale et brouille la frontière entre contenu automatisé et interaction humaine. Parmi les recommandations figurent le renforcement des pratiques d'authentification, la vérification multi-facteurs pour les demandes financières, l'établissement de standards sectoriels de signalement des incidents et l'investissement dans des technologies de détection. L'étude présente les deepfakes comme une menace croissante à l'intersection de la fraude, de la cybersécurité et de l'intégrité de l'information, et insiste sur l'urgence de mesures défensives coordonnées entre entreprises et régulateurs.