Des experts mettent en garde : le clonage vocal par IA alimente une hausse des arnaques par vishing et d'ingénierie sociale
Les rapports de l'industrie réitèrent que le clonage vocal par IA est de plus en plus utilisé par les escrocs pour usurper l'identité de dirigeants, de proches ou d'agents de service dans des attaques de vishing. Bien qu'aucun incident majeur unique n'ait dominé les dernières 48 heures, les chercheurs appellent à un renforcement de l'authentification et à une sensibilisation du public.
Les organismes de sécurité et de protection des consommateurs continuent de souligner que le clonage vocal par IA est un facteur favorisant de plus en plus les escroqueries par vishing et les fraudes complexes par ingénierie sociale. Des rapports d’analystes du secteur et d’entreprises telles que McAfee insistent sur le fait que des outils de synthèse vocale peu coûteux et à haute fidélité permettent aux attaquants d’imiter de manière convaincante des dirigeants, des proches ou des agents d’assistance, augmentant la probabilité que les cibles se conforment à des demandes financières ou de données. Bien qu’aucun incident majeur de clonage vocal n’ait été signalé au cours des dernières 48 heures, la tendance accélère le risque dans tous les secteurs : les équipes financières d’entreprises sont confrontées à des fraudes au PDG délivrées sous forme d’instructions vocales réalistes, des familles reçoivent des appels prétendant provenir de proches en détresse, et les systèmes d’authentification des centres d’appels basés sur des empreintes vocales révèlent des vulnérabilités. Les mesures d’atténuation recommandées incluent l’adoption de vérifications multifactorielles et hors bande pour les demandes financières, la formation du personnel à traiter avec scepticisme les confirmations vocales non sollicitées, et l’utilisation de phrases de défi-réponse ou de procédures de rappel. On exhorte également les fournisseurs et les régulateurs à améliorer les outils de détection, le filigranage de l’audio synthétique et les directives publiques afin de réduire l’efficacité des escroqueries par voix clonée. (Source : analyse McAfee et couverture du secteur, 2025)
Arnaques similaires
Articles liés
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database