Studie: Deepfake-Betrug im „industriellen Maßstab“ — AI Incident Database
Eine Analyse der AI Incident Database zeigt, dass Deepfake-gestützte Betrugsfälle stark zunehmen und glaubwürdige Audio- und Video‑Imitationen in großer Zahl ermöglichen. Expert:innen warnen, dass leicht verfügbare KI-Tools Kosten senken und Personalisierung erhöhen, wodurch Risiken für Unternehmen und Verbraucher wachsen.
Eine neue Auswertung der AI Incident Database gemeinsam mit Recherchen der Guardian kommt zu dem Schluss, dass Deepfake‑gestützte Betrugsfälle in einem „industriellen Maßstab“ auftreten und hochgradig glaubwürdige Identitätsimitationen über Audio‑ und Videokanäle ermöglichen. Die Studie dokumentiert ein breites Spektrum an Betrugsformen — von CEO‑Stimmen, die zur Autorisierung betrügerischer Überweisungen missbraucht werden, über fingierte Ärzt:innen bis hin zu erfundenen Kundendienstgesprächen — die zu erheblichen finanziellen Verlusten und Reputationsschäden geführt haben. Forschende und Cybersicherheitsexpert:innen betonen, dass frei verfügbare Standard‑KI‑Werkzeuge die technischen und finanziellen Hürden zur Erstellung überzeugender Multimedia‑Fälschungen stark gesenkt haben, was sowohl das Volumen als auch die Raffinesse gezielter Angriffe erhöht. Besonders die zunehmende Personalisierung treibe Social‑Engineering‑Methoden zum Erfolg, weil sie automatisierte Inhalte und echte menschliche Interaktion schwerer unterscheidbar mache. Als Gegenmaßnahmen empfiehlt der Bericht stärkere Authentifizierungspraktiken, Multi‑Faktor‑Verifikation bei finanziellen Anfragen, branchenweite Meldepflichten für Vorfälle sowie verstärkte Investitionen in Detektionstechnologien. Die Analyse verortet Deepfakes als eskalierende Bedrohung an der Schnittstelle von Betrug, Cybersicherheit und Informationsintegrität und unterstreicht die Dringlichkeit koordinierter Abwehrmaßnahmen von Unternehmen und Regulierungsbehörden.