Relatório da ONU/UIT pede padrões globais para detectar e rotular deepfakes de IA após aumento de fraudes
A UIT recomendou a adoção urgente de padrões de detecção e ferramentas de proveniência para rotular áudio/vídeo sintético, alertando que deepfakes estão sendo cada vez mais usados em golpes de investimento, romance e sorteios e podem ameaçar eleições e mercados. O relatório, divulgado em 30 de dezembro de 2025 na Cúpula AI for Good, pede verificação nas plataformas e cooperação internacional.
O relatório da União Internacional de Telecomunicações (UIT), divulgado juntamente com a cobertura da ONU em 30 de dezembro de 2025, alerta que as ferramentas de síntese de IA em rápida evolução estão permitindo deepfakes de áudio e vídeo realistas que representam riscos crescentes de fraude e segurança. A UIT recomenda a adoção urgente de normas técnicas interoperáveis, protocolos de autenticação de conteúdo e medidas de verificação e proveniência em nível de plataforma para detectar e rotular mídia sintética. Os autores destacam o uso crescente de deepfakes em golpes de investimento e romance — em que vídeos ou vozes fabricados manipulam vítimas para enviar fundos — e em esquemas de brindes e extorsão; também sinalizam riscos sistêmicos potenciais às eleições e aos mercados financeiros caso o conteúdo sintético seja usado como arma em grande escala. O relatório insta governos, indústria e organizações internacionais a estabelecer conjuntos de ferramentas compartilhadas para metadados de proveniência, APIs de detecção e processos rápidos de remoção, ao mesmo tempo em que equilibra a liberdade de expressão e as preocupações com privacidade. Pede às grandes plataformas que implantem credenciais verificáveis e aos Estados que apoiem a capacitação para que países com menos recursos possam se defender contra o uso indevido transfronteiriço de deepfakes.
Golpes relacionados
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database