Escrocs Sentimentaux Utilisent Désormais des Appels Vidéo Deepfake IA en Temps Réel
La technologie des deepfakes permet aux escrocs de mener des conversations vidéo en direct convaincantes, contournant les vérifications traditionnelles.
La Commission fédérale du commerce (FTC) a publié un rapport alarmant révélant que des escrocs affectifs ont commencé à utiliser la technologie de deepfake vidéo en temps réel pour mener des appels vidéo convaincants avec leurs victimes. Cette nouvelle technique dangereuse rend complètement inefficace le conseil courant de « discuter en vidéo pour vérifier l'identité de quelqu'un ». Les victimes déclarent avoir eu plusieurs conversations vidéo pendant des semaines ou des mois avec leur prétendu intérêt romantique, pour découvrir finalement que la personne n'avait jamais existé. La technologie d'IA peut générer des expressions faciales réalistes, synchroniser les lèvres sur la voix de l'escroc et même imiter différents accents. Les recommandations de la FTC incluent : effectuer une recherche d'image inversée pour toutes les photos, se montrer extrêmement méfiant envers toute personne prétendant être militaire à l'étranger, travailler sur une plateforme pétrolière ou être médecin à l'étranger, et ne jamais envoyer d'argent à quelqu'un que vous n'avez pas rencontré plusieurs fois en personne. Les pertes liées aux escroqueries amoureuses ont atteint un record de 1,3 milliard de dollars en 2024.
Articles liés
AI-driven romance and pig-butchering scams surge around Valentine’s Day, experts warn
Western Australia Government: Romance‑Scam Victims and Losses Climbed in 2025; AI‑Enabled Fraud Warning