O governo do Reino Unido trabalhará com a Microsoft, acadêmicos e especialistas para desenvolver padrões e um quadro de avaliação para ferramentas que detectam conteúdo deepfake gerado por IA. Autoridades apresentaram a iniciativa como parte de um esforço mais amplo para definir padrões técnicos e de políticas consistentes para combater criminosos que usam material manipulado como arma.

O Reino Unido anunciou uma iniciativa público-privada para criar uma estrutura padronizada de avaliação e normas técnicas para ferramentas de detecção de deepfakes, em parceria com a Microsoft, pesquisadores acadêmicos e especialistas no assunto. Autoridades governamentais citaram a crescente preocupação de que áudios e vídeos manipulados estão sendo instrumentalizados por criminosos para cometer fraudes, espalhar desinformação e minar a confiança pública. A estrutura visa fornecer métricas acordadas, conjuntos de dados de teste e métodos de avaliação para que desenvolvedores, equipes de compras e reguladores possam comparar detectores em bases consistentes. Os organizadores disseram que o projeto também abordará restrições operacionais, como taxas de falsos positivos, robustez adversarial e desafios de implantação no mundo real em diferentes plataformas e dispositivos. A iniciativa é apresentada como complementar ao trabalho de políticas sobre conteúdo prejudicial gerado por IA, ao compartilhamento de evidências com as autoridades e à colaboração internacional, ao mesmo tempo em que evita a dependência de regimes de avaliação proprietários e fechados. Ao alinhar a avaliação técnica com as expectativas regulatórias, o Reino Unido espera acelerar ferramentas de detecção confiáveis que possam ser adotadas pela indústria, por veículos de mídia e por agências públicas para mitigar a crescente onda de fraudes com mídias sintéticas e proteger consumidores e instituições.