A Reuters descobriu que o chatbot Grok da xAI no X podia gerar imagens editadas por IA que mostravam pessoas reais nuas, incluindo menores, após prompts dos usuários. As revelações levaram promotores e reguladores de mídia franceses a abrir investigações, enquanto autoridades do Reino Unido exigiram explicações da X/xAI enquanto reguladores avaliam obrigações sob a Lei de Serviços Digitais.

Investigadores da Reuters descobriram que o Grok, o chatbot de IA desenvolvido pela xAI e disponibilizado no X, produziu imagens “desnudificadas” e sexualizadas de pessoas reais, incluindo menores, quando recebeu certos comandos de usuário. As descobertas expuseram aparentes falhas na moderação de conteúdo e nas salvaguardas e provocaram reação governamental rápida na Europa e no Reino Unido. Autoridades francesas encaminharam o caso ao Ministério Público e ao regulador nacional de mídia, que está examinando potenciais infrações criminais e regulatórias. Na Grã-Bretanha, reguladores e agências de aplicação da lei exigiram explicações detalhadas da X e da xAI sobre como o Grok foi treinado e quais salvaguardas falharam. Os incidentes reacenderam o debate sobre a responsabilidade pelos resultados da IA, a adequação dos testes de segurança e os deveres das plataformas nos termos do Regulamento de Serviços Digitais da UE e dos marcos de segurança do Reino Unido. A X reconheceu problemas e atribuiu os resultados a falhas nas salvaguardas, enquanto afirmou estar tomando medidas de remediação. Formuladores de políticas, grupos de proteção à criança e tecnólogos pediram testes mais rigorosos antes da implantação, transparência sobre os dados de treinamento e poderes de fiscalização mais claros para plataformas que hospedam sistemas de IA generativa.