Spanische Polizei zerschlägt KI-/Deepfake-Anlagebetrugsring, beschlagnahmt rund 20 Mio. $ und verhaftet Verdächtige
Die spanische Nationalpolizei nahm mehrere Verdächtige in einem KI‑gestützten Anlagebetrug fest, der Deepfake-Videoanzeigen und gezielte Ansprache nutzte, um den Opfern Millionen zu stehlen. Behörden erklärten, das Netzwerk habe die Opfer häufig erneut kontaktiert, indem es sich als Ermittler oder Rückgewinnungsagenten ausgab, um zusätzliche Zahlungen zu erpressen.
Spanische Strafverfolgungsbehörden gaben die Zerschlagung eines von KI unterstützten Anlagebetrugsrings bekannt, der dafür verantwortlich ist, Opfer mit Deepfake‑Werbungen und algorithmischer Zielgruppenansprache zu täuschen; dies führte zu Festnahmen und der Beschlagnahme von rund 20 Millionen Dollar mutmaßlicher Erlöse. Ermittler beschrieben, wie Betreiber gefälschte Videotestimonials und Promi‑Endorsements produzierten, um betrügerischen Krypto‑Investitionsplattformen Glaubwürdigkeit zu verleihen, und dann personalisierte Ansprache – manchmal unter Vortäuschung von Amtsträgern oder Rückgewinnungsagenten – nutzten, um Opfer zu weiteren Zahlungen zu drängen. Die Untersuchung deckte koordinierte Teams auf, die Social Engineering, technische Produktion von Deepfake‑Medien, Zahlungsabwicklung über geschichtete Konten und die schnelle Umwandlung von Fiat in Stablecoins zur Verlagerung von Mitteln ins Ausland übernahmen. Die Polizei hob Muster wiederholter Kontaktaufnahmen und Manipulationen hervor, die darauf ausgelegt waren, die Herauspressung zu maximieren, bevor Opfer Verluste meldeten. Die Behörden führten die Aktion auf verbesserte forensische Fähigkeiten bei Medienauthentifizierung, Zahlungsspurung und internationaler Zusammenarbeit zurück und warnten, dass sich entwickelnde generative KI‑Werkzeuge zeitnahe Meldungen und Wachsamkeit der Plattformen kritisch machen. Beamte gaben an, dass laufende Ermittlungen darauf abzielen, Vermittler, Werbenetzwerke und Möglichkeiten zur Wiedergutmachung für Opfer zu identifizieren.
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database