Neo‑Nazi- und dschihadistische Netzwerke nutzen KI-Stimmenklonung, um Propaganda zu verstärken
Berichterstattung und Experteninterviews zeigen, dass extremistische Gruppen KI-Stimmenklonen und Text‑to‑Speech einsetzen, um mehrsprachige Propaganda zu produzieren. The Guardian hebt hervor, dass geklonte historische Reden und Hörbücher genutzt werden, um das Engagement zu steigern und Moderation zu umgehen.
Eine Recherche des Guardian beschreibt, wie extremistische Akteure, darunter neo‑nazistische und dschihadistische Netzwerke, rapide generative Audio‑Tools übernehmen, um überzeugendere, mehrsprachige Propaganda zu produzieren. Quellen und Experten, die für den Beitrag interviewt wurden, schildern mehrere Missbrauchsmuster: das Klonen von Stimmen historischer Figuren und Bewegungsführer, um emotional wirkungsvolle Reden zu erschaffen, die Produktion erzählter Hörbücher verbotener oder extremistischer Texte und die Umnutzung von Audioaufnahmen von Prominenten oder Influencern, um Botschaften Glaubwürdigkeit zu verleihen. Die resultierenden Inhalte sind für Plattformformate optimiert — kurze, teilbare Clips und übersetzte Versionen, die auf regionale Zielgruppen zugeschnitten sind — und erhöhen Reichweite und Engagement in sozialen Netzwerken, verschlüsselten Messaging‑Apps und Randforen. Moderations‑ und regulatorische Antworten tun sich schwer, Schritt zu halten, weil synthetisches Audio schnell produziert, über dezentralisierte Kanäle verteilt und häufig mit kleinen Änderungen erneut hochgeladen werden kann, um automatisierter Erkennung zu entgehen. Der Artikel fordert koordiniertes Handeln: Investitionen in Erkennungswerkzeuge, klarere Plattformrichtlinien zu synthetischen Stimmen, grenzüberschreitende Zusammenarbeit zwischen Technologieunternehmen und Regulierern sowie gezielte Gegenbotschaften, um die Anziehungskraft emotional kraftvoller, erfundener Audioinhalte gewaltbereiter und extremistischer Bewegungen zu dämpfen.
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database