Des escrocs utilisent le clonage vocal par IA pour produire des messages vocaux urgents se faisant passer pour des proches et exigeant des transferts immédiats. The Guardian appelle les auditeurs à faire une pause, à vérifier via des moyens de contact connus et à adopter des codes familiaux pour prévenir les attaques de vishing.

The Guardian rapporte une forte augmentation de l’utilisation de clones vocaux alimentés par l’IA pour créer des appels vocaux convaincants sollicitant des fonds d’urgence, souvent en se faisant passer pour des enfants ou d’autres membres de la famille. Les criminels peuvent assembler un clone vocal exploitable à partir de quelques secondes d’enregistrement prélevées sur des messages d’accueil de messagerie vocale, des publications sur les réseaux sociaux ou des vidéos, puis transmettre des messages persuasifs qui poussent les victimes à effectuer des transferts d’argent instantanés. L’article décrit des précautions pratiques : supprimer ou remplacer les messages d’accueil personnalisés par des messages génériques, établir des mots‑de‑passe familiaux et des routines de vérification, et toujours rappeler un numéro enregistré plutôt que de répondre au message. Il souligne que les attaquants combinent ingénierie sociale et outils d’IA pour intensifier la confiance et l’urgence, créant des campagnes de vishing plus difficiles à détecter. L’article met aussi en lumière l’impact émotionnel sur les familles et la nécessité pour les entreprises technologiques et les forces de l’ordre d’adapter les mesures de détection et de réponse. Des défenses comportementales simples et des pratiques de vérification sont mises en avant comme la protection immédiate la plus efficace pour les victimes potentielles.