Hiya/TechRadar : un Américain sur quatre a reçu un appel vocal deepfake l'an dernier
Une enquête multinationale soutenue par Hiya et reprise par TechRadar, menée auprès de plus de 12 000 consommateurs dans six pays, révèle que 25 % des répondants américains ont reçu un appel vocal deepfake au cours des 12 derniers mois. Les experts alertent sur l'accélération des arnaques par clonage vocal grâce à l'IA générative et demandent des réponses plus fermes des opérateurs et des régulateurs pour limiter les pertes financières.
L’étude, basée sur des données Hiya et portant sur plus de 12 000 personnes aux États‑Unis, Royaume‑Uni, Canada, France, Allemagne et Espagne, indique que 25 % des répondants américains ont déclaré avoir reçu un appel vocal deepfake au cours des 12 derniers mois. De nombreux participants ont précisé qu’ils ne pouvaient pas distinguer de façon fiable les voix synthétiques des voix réelles, ce qui illustre la facilité d’accès des outils de clonage vocal pour les fraudeurs. Les experts cités expliquent que l’IA générative a fait baisser les barrières techniques, permettant des campagnes d’ingénierie sociale à grande échelle qui usurpent l’identité de proches, de personnels financiers ou de responsables publics afin d’extorquer des paiements ou des identifiants de compte. Les personnes âgées et celles ayant une littératie numérique limitée sont particulièrement vulnérables, ce qui pousse les spécialistes à réclamer des contrôles renforcés de la part des opérateurs télécoms, des normes améliorées d’étiquetage des appels et des mesures réglementaires obligeant à des outils de détection et de blocage. Le rapport recommande également un partage d’information intersectoriel plus rapide et des campagnes d’éducation des consommateurs pour réduire les cas d’usurpation et les pertes financières alors que les arnaques vocales propulsées par l’IA se multiplient.
What this article means for a user right now
Une enquête multinationale soutenue par Hiya et reprise par TechRadar, menée auprès de plus de 12 000 consommateurs dans six pays, révèle que 25 % des répondants américains ont reçu un appel vocal deepfake au cours des 12 derniers mois. Les experts alertent sur l'accélération des arnaques par clonage vocal grâce à l'IA générative et demandent des réponses plus fermes des opérateurs et des régulateurs pour limiter les pertes financières.
- Scam Detector: For mixed scam inputs such as messages, files, screenshots, links, and fake shops.
- How StopScam Works: For the product path from first web check to ongoing mobile protection.