Eine Analyse der AI Incident Database, berichtet von The Guardian, zeigt einen raschen Anstieg von Deepfake‑Videos und Sprachklonen in zielgerichteten Betrugsfällen weltweit, von personalisierten Romance‑Scams bis zu CFO‑Imitationen. Die Studie warnt, dass billige, leicht einsetzbare Werkzeuge die Skalierung befördern und ohne bessere Erkennung und Kontrollen größere finanzielle Verluste zu erwarten sind.

Die jüngste Auswertung der AI Incident Database dokumentiert, dass Deepfake‑gestützte Betrugsfälle sich von Einzelfällen zu einer industrialisierten Angriffsform entwickelt haben. Die Studie beschreibt eine Häufung von Vorfällen, bei denen synthetische Audio‑ und Videoinhalte das Vertrauen der Opfer deutlich erhöhten — etwa gefälschte Videoanrufe in Romance‑Betrugsfällen, die Zielpersonen von der Echtheit überzeugten, oder CFO‑Imitationen, bei denen geklonte Stimmen Überweisungen anordneten. Forschende heben hervor, dass die Demokratisierung generativer Modelle und standardisierte Tools die technischen Hürden für überzeugende Fälschungen drastisch senken und so automatisierte, stark personalisierte Social‑Engineering‑Angriffe in großem Umfang ermöglichen. Der Bericht verweist auf dokumentierte finanzielle Verluste, die Schwierigkeit der Attribution und die Verzögerung zwischen Kompromittierung und Monetarisierung, wenn gestohlene oder fabrizierte Vermögenswerte durch komplexe Kanäle gewaschen werden. Als Gegenmaßnahmen empfiehlt die Studie Investitionen in Herkunfts‑ und Authentifizierungsstandards, plattformübergreifende Erkennungsfähigkeiten, strengere Verifizierungsprozesse für Finanztransaktionen sowie öffentlich‑private Partnerschaften zur Forschungsförderung und zum Austausch von Bedrohungsinformationen. Ohne solche Kontrollen prophezeit die Analyse eine weitere Skalierung von Deepfake‑Betrug über alle Bevölkerungsgruppen und Branchen hinweg.