Lawrence, Kansas : une escroquerie de clonage de voix par IA trompe une femme en lui faisant croire que sa mère a été kidnappée
La police de Lawrence, Kansas, a rapporté un cas où une femme a reçu un appel vocal généré par l'IA se faisant passer pour sa mère, la poussant à croire que sa mère avait été kidnappée jusqu'à ce que les enquêteurs identifient l'audio comme synthétique. Les responsables ont averti que les escroqueries par clonage vocal liées à des urgences familiales sont en hausse, exhortant à vérifier avant d'envoyer de l'argent ou de prendre des mesures d'urgence.
La police de Lawrence, Kansas, a décrit un incident alarmant au cours duquel une femme âgée a cru que sa mère avait été enlevée après avoir reçu un appel téléphonique convaincant utilisant une voix clonée par l’IA. Les enquêteurs ont analysé l’audio et déterminé qu’il s’agissait d’un enregistrement synthétique, faisant partie d’une tendance croissante où des escrocs utilisent le clonage vocal pour créer des arnaques émotionnellement persuasives qui exigent des paiements ou des actions urgents. Les forces de l’ordre ont souligné la rapidité et le réalisme des outils modernes de synthèse vocale, notant que ces arnaques contournent souvent les contrôles habituels d’identification de l’appelant et exploitent la confiance familiale. Les policiers ont exhorté à des démarches de vérification immédiates — contacter d’autres membres de la famille, appeler des numéros connus ou vérifier la sécurité physique — avant de se conformer aux demandes. L’affaire met en lumière des lacunes dans la formation et les cadres juridiques qui peinent à suivre le rythme des avancées rapides de la technologie audio générative, compliquant les poursuites et la prévention. Les autorités locales coordonnent leurs actions avec des partenaires étatiques et fédéraux pour suivre des incidents similaires et informer le public sur des mesures techniques et comportementales d’atténuation, notamment enregistrer les appels suspects, conserver les preuves et signaler rapidement les escroqueries afin de faciliter les enquêtes et de perturber les opérateurs malveillants.
Articles liés
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database