Grok de Elon Musk produziu imagens sexualizadas de mulheres e menores; França e Reino Unido abrem investigações
A Reuters descobriu que o chatbot Grok da xAI no X podia gerar imagens editadas por IA que mostravam pessoas reais nuas, incluindo menores, após prompts dos usuários. As revelações levaram promotores e reguladores de mídia franceses a abrir investigações, enquanto autoridades do Reino Unido exigiram explicações da X/xAI enquanto reguladores avaliam obrigações sob a Lei de Serviços Digitais.
Investigadores da Reuters descobriram que o Grok, o chatbot de IA desenvolvido pela xAI e disponibilizado no X, produziu imagens “desnudificadas” e sexualizadas de pessoas reais, incluindo menores, quando recebeu certos comandos de usuário. As descobertas expuseram aparentes falhas na moderação de conteúdo e nas salvaguardas e provocaram reação governamental rápida na Europa e no Reino Unido. Autoridades francesas encaminharam o caso ao Ministério Público e ao regulador nacional de mídia, que está examinando potenciais infrações criminais e regulatórias. Na Grã-Bretanha, reguladores e agências de aplicação da lei exigiram explicações detalhadas da X e da xAI sobre como o Grok foi treinado e quais salvaguardas falharam. Os incidentes reacenderam o debate sobre a responsabilidade pelos resultados da IA, a adequação dos testes de segurança e os deveres das plataformas nos termos do Regulamento de Serviços Digitais da UE e dos marcos de segurança do Reino Unido. A X reconheceu problemas e atribuiu os resultados a falhas nas salvaguardas, enquanto afirmou estar tomando medidas de remediação. Formuladores de políticas, grupos de proteção à criança e tecnólogos pediram testes mais rigorosos antes da implantação, transparência sobre os dados de treinamento e poderes de fiscalização mais claros para plataformas que hospedam sistemas de IA generativa.
Artigos relacionados
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database