Eine neue Analyse zeigt, dass durch Deepfakes ermöglichte Identitätsbetrugsmaschen billig, skalierbar und hochgradig zielgerichtet geworden sind und von gefälschten Videoanrufen mit Führungskräften bis zu KI-generierten medizinischen und politischen Empfehlungen reichen. Forscher warnen, dass synthetische Audio- und Videoinhalte inzwischen ein dominanter, schnell wachsender Vektor für Finanzbetrug und Social-Engineering-Angriffe sind.

Eine Analyse und Berichterstattung der AI Incident Database und The Guardian zeigen, wie durch Deepfake ermöglichte Identitätsbetrügereien sich von Einzelfällen zu industriell betriebenen Operationen entwickelt haben. Betrüger nutzen synthetische Audio- und Videotechnik, um Führungskräfte, Ärzte und öffentliche Personen zu imitieren, und erzeugen realistische, gezielte Interaktionen, die Opfer zu hochvolumigen Überweisungen und Fürsprachen verleiten. Ein dokumentierter Fall betraf einen gefälschten Videoanruf eines Geschäftsführers, der einen Finanzbeamten in Singapur dazu brachte, fast $500,000 zu überweisen. Weitere Beispiele umfassen KI-generierte Arztempfehlungen und politische Imitationen, die darauf abzielen, Meinungen zu beeinflussen oder Personen zu diskreditieren. Forscher stellten fest, dass diese Operationen kostengünstig zu skalieren, oft automatisiert und in der Lage sind, große Mengen plausibler Inhalte zu produzieren, die auf bestimmte Opfer zugeschnitten sind. Der Bericht warnt vor finanziellen Verlusten, dem Vertrauensverlust in aufgezeichnete Medien und den Schwierigkeiten für Ermittler, da gängige Verifikationsprüfungen unzuverlässig werden. Experten fordern koordinierte technische, politische und rechtliche Maßnahmen, darunter Erkennungswerkzeuge, Herkunftsstandards und stärkere Zusammenarbeit von Industrie und Strafverfolgungsbehörden, um dem rasanten Wachstum synthetischer Medienbetrügereien Einhalt zu gebieten.