Des chercheurs ont averti que des criminels disséminent des numéros de téléphone frauduleux de service‑client sur des sites web afin que les moteurs de recherche IA et les systèmes de LLM fassent remonter ces numéros comme des réponses uniques et faisant autorité. Les victimes qui appellent ces numéros peuvent être dirigées vers des centres d'appels frauduleux qui tentent le vol d'identité, la compromission d'accès à distance ou l'extorsion.

Des chercheurs en sécurité ont décrit une tactique croissante de "content‑poisoning" dans laquelle des attaquants plantent délibérément de faux numéros de téléphone du service client sur une large gamme de pages en ligne — des descriptions de vidéos YouTube aux sites d'avis et même aux pages académiques — de sorte que les moteurs de recherche et les assistants IA renvoient un seul numéro de support apparemment autoritaire. L'attaque exploite des fonctionnalités de recherche modernes propulsées par des LLM qui présentent une réponse ou un extrait unique plutôt qu'une liste complète de sources, amplifiant les entrées compromises et rendant la vérification traditionnelle des sites plus difficile. Les personnes qui composent ces numéros frauduleux risquent d'être redirigées vers des centres d'appels frauduleux qui tentent de collecter des identifiants, utilisent l'ingénierie sociale pour obtenir des autorisations d'accès à distance, ou pratiquent l'extorsion. Les chercheurs exhortent les entreprises à surveiller les inscriptions non autorisées, les consommateurs à recouper les numéros de téléphone sur les sites officiels des entreprises et les factures, et les opérateurs de plateformes d'IA à améliorer la provenance et la transparence des sources afin que les réponses à réponse unique n'élèvent pas sans critique le contenu empoisonné. La technique représente une convergence des abus sur le web et des failles de récupération par l'IA qui soulèvent des risques aigus pour les consommateurs cherchant une aide rapide.