Étude : la fraude deepfake à « échelle industrielle » facilite arnaques sentimentales ciblées et usurpation de directeur financier (CFO)
Une analyse de la base de données AI Incident Database, rapportée par The Guardian, révèle une hausse rapide des deepfakes vidéo et de clonage vocal employés dans des escroqueries ciblées à travers le monde, allant d’arnaques sentimentales personnalisées à l’usurpation d’identités de cadres. L’étude alerte que des outils bon marché et faciles à déployer permettent cette industrialisation des fraudes et prédit des pertes financières accrues si la détection et les contrôles ne s’améliorent pas.
L’analyse montre que la fraude facilitée par les deepfakes a évolué d’incidents isolés vers une modalité d’attaque industrialisée, avec des cas documentés où l’audio et la vidéo synthétiques ont fortement augmenté la confiance des victimes. Parmi les exemples figurent des arnaques sentimentales utilisant des appels vidéo fabriqués pour convaincre des cibles de l’authenticité d’une relation, et des opérations d’usurpation du directeur financier où des voix clonées ordonnaient des virements. Les chercheurs soulignent que la démocratisation des modèles génératifs et la commercialisation d’outils réduisent drastiquement la barrière technique pour produire des faux convaincants, permettant des campagnes d’ingénierie sociale automatisées et hautement personnalisées à grande échelle. Le rapport met en évidence des pertes financières avérées, la difficulté d’attribuer les attaques et le décalage entre la compromission et la monétisation, les biens volés ou fabriqués circulant ensuite dans des circuits complexes pour être blanchis. Parmi les recommandations figurent des investissements dans des normes de provenance et d’authentification, le développement de capacités de détection inter‑plateformes, le renforcement des processus de vérification des transactions financières et des partenariats public‑privé pour financer la recherche et le partage du renseignement sur les menaces. Sans ces mesures, l’étude prévient que les criminels continueront à étendre la fraude deepfake à tous les profils démographiques et secteurs.