Les arnaques par deepfake deviennent industrielles et poussent un responsable financier de Singapour à effectuer un paiement de près de 500 000 $
Une nouvelle analyse montre que les escroqueries par usurpation d'identité facilitées par les deepfakes sont devenues bon marché, évolutives et hautement ciblées, allant des appels vidéo frauduleux mettant en scène des dirigeants aux recommandations médicales et politiques générées par l'IA. Les chercheurs avertissent que l'audio et la vidéo synthétiques sont désormais un vecteur dominant et en forte croissance pour la fraude financière et les attaques d'ingénierie sociale.
Une analyse et un rapport de la base de données d'incidents liés à l'IA et du Guardian détaillent comment les arnaques d'usurpation d'identité facilitées par les deepfakes sont passées d'incidents isolés à des opérations à échelle industrielle. Les fraudeurs utilisent de l'audio et de la vidéo synthétiques pour simuler des cadres, des médecins et des personnalités publiques, produisant des interactions réalistes et ciblées qui trompent les victimes en les poussant à effectuer des virements ou des validations de grande valeur. Un cas documenté impliquait un faux appel vidéo d'un dirigeant qui a persuadé un responsable financier de Singapour de transférer près de 500 000 $. D'autres exemples incluent des recommandations de médecins générées par l'IA et des usurpations politiques destinées à influencer l'opinion ou à discréditer des individus. Les chercheurs ont constaté que ces opérations sont peu coûteuses à mettre à l'échelle, souvent automatisées et capables de produire de grandes quantités de contenus plausibles adaptés à des victimes spécifiques. Le rapport alerte sur les pertes financières, l'érosion de la confiance dans les médias enregistrés et les difficultés pour les enquêteurs alors que les contrôles de vérification standards deviennent peu fiables. Les experts préconisent des réponses coordonnées sur les plans technique, politique et juridique, comprenant des outils de détection, des normes de provenance et une collaboration renforcée entre les acteurs de l'industrie et les forces de l'ordre pour freiner la croissance rapide des escroqueries par médias synthétiques.
Articles liés
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database