Recherche McAfee : Les escrocs utilisent le clonage vocal par IA pour se faire passer pour des proches et des dirigeants dans des arnaques par vishing
Des recherches de McAfee à la mi-novembre 2025 ont révélé que les escrocs exploitent de plus en plus des outils de clonage vocal par IA pour produire de brèves imitations audio convaincantes de proches ou de dirigeants afin de perpétrer des fraudes téléphoniques et par messagerie vocale, incitant souvent les victimes à effectuer des paiements intraçables. Le rapport avertit que trois à dix secondes d'audio peuvent suffire à créer un clone efficace et que les cas constatés impliquent fréquemment des demandes de cartes-cadeaux, de cryptomonnaies ou de virements bancaires.
Des recherches sectorielles publiées par McAfee à la mi‑novembre 2025 documentent une forte augmentation de l’utilisation de technologies d’imitation vocale par IA par des fraudeurs menant des arnaques par vishing et par messagerie vocale. L’analyse montre que les outils de clonage modernes peuvent générer des échantillons audio courts plausiblement convaincants à partir de seulement trois à dix secondes de voix source, permettant aux escrocs d’usurper des proches, des dirigeants d’entreprise ou des contacts de confiance et de pousser les victimes à effectuer des paiements rapides et irréversibles. Les demandes frauduleuses typiques reflètent des tendances anciennes : demandes de cartes‑cadeaux, transferts de cryptomonnaie ou virements bancaires immédiats — des canaux difficiles à tracer ou à inverser. Le rapport de McAfee combine des données d’enquête, des investigations d’incidents et des tests techniques pour expliquer comment des chaînes d’outils IA facilement accessibles abaissent le seuil de production de contrefaçons vocales réalistes et comment les escrocs intègrent l’audio cloné dans des campagnes multi‑canales incluant l’affichage du numéro usurpé et des messages de phishing. La recherche recommande des défenses en couches : des politiques d’authentification ne reposant pas uniquement sur la voix, des protocoles organisationnels explicites pour les demandes de paiement, des campagnes de sensibilisation du public et un signalement plus rapide aux forces de l’ordre et aux partenaires des infrastructures critiques pour perturber les criminels exploitant les capacités de l’IA.