McAfee‑Forschung stellte Mitte November 2025 fest, dass Betrüger zunehmend KI‑Stimmenklon‑Tools nutzen, um kurze, überzeugende Audio‑Imitationen von Angehörigen oder Führungskräften zu erstellen, um Telefon‑ und Voicemail‑Betrügereien durchzuführen, die Opfer oft dazu veranlassen, nicht nachverfolgbare Zahlungen zu senden. Der Bericht warnt, dass drei‑ bis zehn Sekunden Audio ausreichen können, um einen effektiven Klon zu erzeugen, und dass bei den erfassten Vorfällen häufig um Geschenkkarten, Kryptowährungen oder Überweisungen gebeten wurde.

Branchenforschung, die McAfee Mitte November 2025 veröffentlichte, dokumentiert einen deutlichen Anstieg des Einsatzes von KI‑Stimmenklontechnologien durch Betrüger, die Vishing‑ und Voicemail‑Betrügereien durchführen. Die Analyse zeigt, dass moderne Klonwerkzeuge bereits aus nur drei bis zehn Sekunden Ausgangssprache plausibel überzeugende kurze Audiosamples erzeugen können, wodurch Betrüger Familienmitglieder, Unternehmensleiter oder vertrauenswürdige Kontakte imitieren und Opfer zu schnellen, irreversiblen Zahlungen drängen können. Typische betrügerische Forderungen spiegeln langjährige Trends wider – die Bitte um Geschenkkarten, Kryptoüberweisungen oder sofortige Banküberweisungen – weil diese Kanäle schwer nachzuverfolgen oder rückgängig zu machen sind. McAfees Bericht kombiniert Umfragedaten, Ermittlungen zu Vorfällen und technische Tests, um zu erklären, wie leicht verfügbare KI‑Toolchains die Hürde für die Produktion realistischer Stimmfälschungen senken und wie Betrüger geklonte Audioaufnahmen in mehrkanalige Kampagnen integrieren, die gefälschte Rufnummernanzeigen und Phishing‑Nachrichten einschließen. Die Forschung empfiehlt mehrschichtige Abwehrmaßnahmen: Authentifizierungsrichtlinien, die sich nicht allein auf die Stimme stützen, explizite organisatorische Protokolle für Zahlungsanfragen, Aufklärungskampagnen sowie schnellere Meldungen an Strafverfolgungsbehörden und Partner der kritischen Infrastruktur, um Kriminelle, die KI‑Fähigkeiten ausnutzen, zu stören.