Des chercheurs en sécurité et des journalistes mettent en garde contre une vague croissante d'escroqueries d'urgence utilisant des voix clonées par IA qui synthétisent la voix d'enfants à partir de courts extraits audio. L'article du The Guardian explique à quel point il est facile pour les criminels de créer des messages vocaux urgents convaincants et recommande des étapes de vérification pour éviter les fraudes motivées par l'émotion.

Un reportage d’investigation dans The Guardian documente une augmentation des escroqueries utilisant des voix clonées par l’IA, dans lesquelles des fraudeurs se servent de seulement quelques secondes d’enregistrement audio — prélevées sur des publications sur les réseaux sociaux, de courts extraits d’appels ou des vidéos publiques — pour synthétiser la voix d’un proche et laisser des messages vocaux urgents suppliant de l’argent. L’article résume des entretiens avec des victimes, des défenseurs des consommateurs et des chercheurs en sécurité qui affirment que la technique est rapide, bon marché et alarmablement efficace pour déclencher des réactions instinctives de la part des membres de la famille. Les journalistes décrivent l’appât typique : un ton urgent, un scénario d’urgence fabriqué, et des instructions de transférer de l’argent immédiatement via virement bancaire, applications de paiement ou cartes-cadeaux. L’article expose des mesures de vérification pratiques pour réduire les dégâts : rappeler la personne sur un numéro connu, établir un mot de passe convenu à l’avance pour les urgences, vérifier les demandes inhabituelles auprès de plusieurs membres de la famille, et contacter les banques ou les plateformes avant d’envoyer des fonds. Il appelle également les plateformes et les forces de l’ordre à donner la priorité à la détection et au retrait rapide des fichiers audio synthétiques utilisés dans des campagnes de fraude actives.