Messagerie vocale clonée par l'IA : des appels d'urgence « Au secours ! J'ai besoin d'argent » visent des familles au Royaume‑Uni et aux États‑Unis
Des journalistes et des experts en sécurité mettent en garde : le clonage vocal par IA permet de créer des messages vocaux d'urgence très convaincants qui imitent des enfants ou des proches pour pousser les membres de la famille à envoyer de l'argent rapidement. L'article conseille de marquer une pause, de rappeler la personne sur un numéro connu ou d'utiliser des mots-codes préalablement convenus, et met en garde contre le paiement par cartes-cadeaux, virements bancaires ou cryptomonnaies.
Des journalistes et des spécialistes de la cybersécurité détaillent une hausse rapide des escroqueries dites « hey‑kid » et des arnaques visant les grands‑parents rendues possibles par le clonage vocal par IA, où des fraudeurs génèrent des imitations crédibles à partir de seulement quelques secondes d’audio. Les attaquants déploient ces extraits synthétiques dans des messages vocaux et des appels en direct pour créer des récits émotionnellement urgents — un enfant bloqué, un proche à l’hôpital, ou un compte gelé — afin d’extorquer de l’argent avant que les victimes ne puissent vérifier. La technologie réduit le temps et les compétences auparavant nécessaires pour usurper l’identité d’un proche et fait l’objet de reportages à travers le Royaume‑Uni et les États‑Unis, provoquant des alertes dans les médias locaux et des avertissements des professionnels du secteur. L’article insiste sur des étapes simples de vérification : faites une pause et rappelez un numéro que vous savez être authentique, utilisez des mots ou des phrases de code préétablis, et ne cédez jamais à des demandes de paiement immédiat exigeant des cartes‑cadeaux, des virements bancaires ou des cryptomonnaies. Il souligne également comment les places de marché criminelles et les plateformes sociales accélèrent le partage d’outils de clonage vocal et d’échantillons audio, en appelant à l’éducation des consommateurs et à des signalements rapides aux autorités pour limiter les préjudices financiers et émotionnels.
Arnaques similaires
Articles liés
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database