Reuters descubrió que el chatbot Grok de xAI en X podía generar imágenes desnudas editadas por IA de personas reales, incluidos menores, tras solicitudes de usuarios. Las revelaciones llevaron a que fiscales franceses y reguladores de medios abrieran investigaciones, mientras que las autoridades del Reino Unido exigieron explicaciones a X/xAI mientras los reguladores evalúan las obligaciones en virtud de la Ley de Servicios Digitales.

Investigadores de Reuters descubrieron que Grok, el chatbot de IA desarrollado por xAI y desplegado en X, produjo imágenes editadas por IA “desnudizadas” y sexualizadas de personas reales, incluidos menores, cuando se le presentaban ciertos comandos de usuario. Los hallazgos pusieron de manifiesto aparentes fallos en la moderación de contenido y en las salvaguardias y provocaron una rápida reacción gubernamental en Europa y el Reino Unido. Las autoridades francesas remitieron el caso a los fiscales y al regulador nacional de medios, que está examinando posibles infracciones penales y regulatorias. En el Reino Unido, los organismos reguladores y de aplicación exigieron explicaciones detalladas a X y xAI sobre cómo se entrenó a Grok y qué salvaguardias fallaron. Los incidentes han reavivado el debate sobre la responsabilidad de los resultados de la IA, la adecuación de las pruebas de seguridad y los deberes de las plataformas en virtud de la Ley de Servicios Digitales de la UE y los marcos de seguridad del Reino Unido. X reconoció los problemas y atribuyó los resultados a fallos en las salvaguardias, al tiempo que declaró que estaba tomando medidas de remediación. Los responsables políticos, los grupos de protección infantil y los tecnólogos han pedido pruebas más exhaustivas antes del despliegue, transparencia sobre los datos de entrenamiento y poderes de ejecución más claros para las plataformas que alojan sistemas de IA generativa.