Des rapports alertent sur une hausse des escroqueries audio générées par l'IA, où des fraudeurs clonent la voix de proches pour simuler de fausses urgences familiales et contraindre les victimes à envoyer de l'argent. Selon des experts, les voix synthétiques renforcent l'impression d'urgence et la crédibilité des arnaques traditionnelles liées aux urgences, augmentant l'ampleur et la rapidité de l'extorsion.

Les autorités et des experts du secteur tirent la sonnette d'alarme sur une tendance croissante de fraude par clonage vocal qui utilise de l'audio généré par l'IA pour se faire passer pour des proches et créer de faux scénarios d'urgence familiale. Les fraudeurs obtiennent de courts échantillons de voix, synthétisent une parole convaincante et contactent des cibles en prétendant avoir un besoin urgent d'argent — par exemple, de fausses factures médicales, des problèmes juridiques ou des urgences de voyage — faisant pression sur les victimes pour qu'elles transfèrent des fonds immédiatement. La tactique reprend un mode opératoire d'escroquerie d'urgence de longue date mais s'appuie sur de l'audio synthétique pour contourner certaines étapes de vérification, rendant la tromperie plus crédible même pour des auditeurs avertis technologiquement. Les chercheurs avertissent que la technologie réduit le temps et les efforts nécessaires pour monter ces arnaques et permet des attaques à plus grande échelle, tandis que des mesures défensives comme la vérification multifacteur et les protocoles de rappel restent des contre-mesures efficaces. Les avis aux consommateurs recommandent de vérifier l'urgence alléguée par des canaux secondaires, de contacter d'autres membres de la famille et de traiter avec scepticisme les appels inattendus demandant un paiement immédiat. Il est également demandé aux institutions financières et aux plateformes de déployer des outils de surveillance comportementale et des transactions pour repérer les virements atypiques pouvant indiquer des paiements contraints.