Großbritannien arbeitet mit Microsoft und Wissenschaftlern zusammen, um einen Bewertungsrahmen für Deepfake-Erkennung zu entwickeln
Die britische Regierung wird mit Microsoft, Wissenschaftlern und Experten zusammenarbeiten, um Standards und einen Bewertungsrahmen für Werkzeuge zu entwickeln, die KI-generierte Deepfake-Inhalte erkennen. Beamte stellten die Initiative als Teil einer breiteren Bestrebung dar, einheitliche technische und politische Standards zu setzen, um Kriminelle, die manipuliertes Material als Waffe einsetzen, entgegenzuwirken.
Das Vereinigte Königreich kündigte eine öffentlich-private Initiative zur Schaffung eines standardisierten Bewertungsrahmens und technischer Standards für Deepfake-Erkennungstools an und arbeitet dabei mit Microsoft, akademischen Forschenden und Fachexperten zusammen. Regierungsvertreter nannten die wachsende Sorge, dass manipulierte Audio- und Videoaufnahmen von Kriminellen instrumentalisiert werden, um Betrug zu begehen, Desinformation zu verbreiten und öffentliches Vertrauen zu untergraben. Der Rahmen soll vereinbarte Kennzahlen, Testdatensätze und Bewertungsmethoden bereitstellen, damit Entwickler, Beschaffungsteams und Aufsichtsbehörden Detektoren auf einheitlicher Grundlage vergleichen können. Die Organisatoren erklärten, dass das Projekt auch operative Einschränkungen wie Fehlalarmraten, adversarielle Robustheit und reale Einsatzherausforderungen über Plattformen und Geräte hinweg behandeln werde. Die Initiative wird als ergänzend zu politischer Arbeit an schädlichen KI-Inhalten, zum Austausch von Beweismitteln mit Strafverfolgungsbehörden und zur internationalen Zusammenarbeit dargestellt, während sie die Abhängigkeit von proprietären, geschlossenen Evaluierungsregimen vermeidet. Indem technische Bewertung mit regulatorischen Erwartungen in Einklang gebracht wird, hofft das Vereinigte Königreich, zuverlässige Erkennungstools zu beschleunigen, die von der Industrie, Medienunternehmen und öffentlichen Stellen übernommen werden können, um der zunehmenden Flut an Betrug mit synthetischen Medien entgegenzuwirken und Verbraucher sowie Institutionen zu schützen.
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database