Une analyse du Guardian et de l’AI Incident Database montre que les deepfakes sont devenus bon marché et massifiables, utilisés pour promouvoir des escroqueries financières et usurper l’identité de proches ou de dirigeants. Les experts alertent que l’IA générative permet des opérations d’ingénierie sociale hyper‑personnalisées, compliquant la détection et la réponse des forces de l’ordre.

Des enquêtes relayées par The Guardian et l’AI Incident Database établissent que la génération de deepfakes a évolué de démonstrations ponctuelles vers un outil abordable et à haut débit pour les fraudeurs. Des vidéos et enregistrements vocaux synthétiques convaincants — représentant à la fois des personnalités publiques et des contacts privés — sont exploités pour promouvoir de fausses opportunités d’investissement, usurper des cadres dans des compromissions de courriels professionnels et accélérer les arnaques sentimentales et de recrutement. L’analyse documente plusieurs affaires où des victimes ont perdu des sommes significatives après avoir cru à du contenu falsifié qui légitimait des demandes frauduleuses ou de prétendues recommandations. La démocratisation des modèles génératifs, couplée à des canaux de diffusion à grande échelle, permet à des réseaux d’escrocs de cibler des milliers de personnes tout en adaptant les messages pour maximiser les taux de conversion. Cette montée en puissance des abus de médias synthétiques met à rude épreuve les outils de détection existants et les cadres juridiques, et suscite des appels à des normes de provenance plus strictes, à des procédures de retrait accélérées et à des campagnes de sensibilisation publique. Les services de police et de justice adaptent leurs méthodes d’enquête en intégrant la cyber‑forensique liée à l’IA, le traçage blockchain et la coopération internationale, mais les spécialistes estiment que les réponses politiques et techniques restent en retard par rapport au rythme d’exploitation.