Le FBI met en garde le public américain contre les escroqueries 'enlèvement virtuel' générées par l'IA utilisant le clonage vocal
Le FBI a averti que les criminels utilisent de plus en plus le clonage vocal par IA, les deepfakes et les images altérées pour mener des schémas d'extorsion par kidnapping virtuel qui poussent les victimes à payer rapidement. Les autorités conseillent de vérifier directement l'identité d'un proche, d'utiliser des mots de sécurité familiaux et de signaler les incidents aux forces de l'ordre et au portail IC3.
Le FBI a publié un avis national décrivant une recrudescence d'escroqueries de kidnapping virtuel assistées par l'IA dans lesquelles les attaquants utilisent le clonage de voix, la vidéo deepfake et des photos altérées par l'IA pour créer des preuves convaincantes mais frauduleuses d'un proche détenu contre rançon. Les escrocs contactent généralement les victimes et exigent un paiement immédiat, souvent en cryptomonnaie ou par des méthodes introuvables, tout en exploitant des extraits audio ou visuels synthétiques pour simuler la panique ou des menaces. Le bureau a noté que les contenus générés par l'IA présentent souvent des incohérences détectables et a conseillé des défenses pratiques : contacter directement la personne prétendument enlevée en utilisant des numéros connus, établir et utiliser des mots de sécurité familiaux, limiter le partage de médias privés en ligne et signaler les incidents aux forces de l'ordre locales et au centre de plaintes IC3 du FBI. L'avis souligne la rapidité et la pression émotionnelle exploitées par ces escroqueries, en exhortant les institutions et les consommateurs à mettre en place des protocoles de vérification et les fournisseurs de services à surveiller les comptes abusifs et les médias manipulés. Le FBI a insisté sur la coordination avec les victimes et la sensibilisation du public pour réduire les cas d'extorsion réussis et améliorer les pistes d'enquête.
Arnaques similaires
Articles liés
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database