Un résident d'Indore perd Rs 1.83 lakh après la supplique d'un 'parent' cloné par IA
La police d'Indore a ouvert une enquête après qu'un appelant utilisant une voix générée par une IA s'est fait passer pour un proche et a contraint un résident à transférer environ Rs 1,83 lakh. Les autorités ont averti qu'il s'agit d'une tendance croissante d'escroqueries par clonage vocal exploitant l'urgence émotionnelle.
Une affaire récente à Indore met en lumière la menace croissante des fraudes par clonage de voix pilotées par l’IA : un résident a reçu un appel téléphonique au cours duquel l’auteur a utilisé une voix générée par l’IA reproduisant fidèlement un membre de la famille pour créer un sentiment d’urgence et exiger un paiement immédiat. La victime a été persuadée de transférer environ 1,83 lakh de roupies avant de se rendre compte que l’appel était frauduleux ; la cellule cybernétique de la ville a ouvert une enquête. Ces soi‑disant arnaques « hi‑mom » ou « voice‑clone » exploitent des audio synthétiques réalistes, l’ingénierie sociale et des informations personnelles disponibles publiquement pour fabriquer des urgences crédibles. Les enquêteurs avertissent que de telles fraudes peuvent être suivies de demandes de transfert de fonds via UPI, virement bancaire ou cartes cadeaux pour éviter la traçabilité. Les autorités conseillent au public de vérifier de manière indépendante toute demande d’argent urgente en appelant des numéros connus, en activant les fonctions de filtrage des appels et en refusant tout paiement tant que l’identité n’a pas été confirmée par plusieurs canaux. Les banques et les plateformes de paiement doivent également être alertées immédiatement si des fonds sont transférés sous la contrainte, car une signalisation rapide améliore les chances de récupération.