L'UIT a recommandé l'adoption urgente de normes de détection et d'outils de provenance pour étiqueter l'audio/vidéo synthétiques, avertissant que les deepfakes sont de plus en plus utilisés dans des escroqueries liées aux investissements, à la romance et aux cadeaux et pourraient menacer les élections et les marchés. Le rapport, publié le 30 déc. 2025 au Sommet AI for Good, appelle à la vérification des plateformes et à la coopération internationale.

Le rapport de l’Union internationale des télécommunications, rendu public parallèlement à la couverture de l’ONU le 30 décembre 2025, avertit que des outils de synthèse IA en rapide progression permettent de créer des deepfakes audio et vidéo réalistes qui représentent des risques croissants de fraude et de sécurité. L’UIT recommande l’adoption urgente de normes techniques interopérables, de protocoles d’authentification des contenus et de mesures de vérification et de provenance au niveau des plateformes pour détecter et étiqueter les médias synthétiques. Les auteurs soulignent l’usage croissant des deepfakes dans les escroqueries financières et les arnaques sentimentales — où des vidéos ou voix fabriquées manipulent les victimes pour les pousser à envoyer des fonds — ainsi que dans les stratagèmes de fausses distributions (giveaway) et d’extorsion ; ils signalent aussi des risques systémiques potentiels pour les élections et les marchés financiers si le contenu synthétique est utilisé comme arme à grande échelle. Le rapport exhorte les gouvernements, l’industrie et les organisations internationales à établir des boîtes à outils communes pour les métadonnées de provenance, les API de détection et les procédures de retrait rapide, tout en conciliant liberté d’expression et protection de la vie privée. Il appelle les grandes plateformes à déployer des identifiants vérifiables et invite les États à soutenir le renforcement des capacités afin que les pays aux ressources limitées puissent se défendre contre les abus transfrontaliers de deepfakes.