Le AI Hub de McAfee rapporte que des outils de clonage vocal accessibles aux consommateurs permettent une vague d'escroqueries convaincantes du type « petit‑enfant en détresse » et de proches ayant besoin d'aide, beaucoup de personnes étant incapables de distinguer de manière fiable des voix clonées de la vraie voix. L'analyse met en garde contre l'utilisation de tels enregistrements par des criminels dans des opérations de vishing et de smishing pour extorquer des cartes‑cadeaux, des virements ou des cryptomonnaies en créant un sentiment d'urgence et en contournant les vérifications normales.

L’analyse de McAfee et les enquêtes sectorielles connexes documentent une augmentation marquée de l’utilisation abusive du clonage vocal alors que des outils d’IA peu coûteux produisent des imitations audio réalistes de membres de la famille et de proches. Les chercheurs ont constaté que des attaquants peuvent synthétiser de courts enregistrements émotionnellement urgents qui persuadent les cibles de transférer des fonds, d’approuver des paiements ou de divulguer des identifiants ; de nombreux consommateurs et même certaines institutions peinent à distinguer un audio cloné par IA d’un enregistrement authentique. Le rapport met en évidence des schémas de fraude courants : un appel deepfake initial ou un message vocal affirmant qu’un proche est en danger immédiat, une pression de suivi pour envoyer des fonds via des cartes cadeaux, des virements bancaires ou des cryptomonnaies, et des techniques d’ingénierie sociale qui exploitent l’urgence, la confusion et la réticence à consulter autrui. McAfee recommande des défenses en couches incluant des politiques de vérification des appels sortants, une confirmation multifactorielle par vidéo ou par mots de passe connus, des campagnes de sensibilisation du public et des contrôles fournisseurs pour détecter l’audio synthétique. Les acteurs du secteur exhortent les entreprises qui exploitent des plateformes de communication à signaler les flux de paiement inhabituels et demandent aux régulateurs de mettre à jour leurs lignes directrices sur l’authentification vocale. L’analyse insiste sur le fait que la détection technologique et l’éducation des consommateurs doivent progresser de concert pour enrayer la rapide militarisation des outils de synthèse vocale.