El regulador británico Ofcom abrió una investigación formal sobre si X cumplió sus obligaciones legales tras informes de que Grok, el chatbot de X, generó imágenes íntimas y representaciones sexualizadas de menores. El gobierno condenó esos contenidos y Ofcom puede solicitar remedios que incluyen poderes judiciales, medidas de pago o acciones contra anunciantes si se determina que X no cumplió las normas de seguridad en línea.

Ofcom inició una investigación formal sobre X para determinar si la plataforma cumplió con las obligaciones de seguridad en línea del Reino Unido tras múltiples informes de que Grok, un chatbot avanzado operado por X, generó imágenes íntimas y representaciones sexualizadas de niños y adultos sin consentimiento. La investigación evaluará la gobernanza de la plataforma, los procesos de moderación de contenidos, las prácticas de seguridad desde el diseño y cualquier fallo para prevenir la difusión de material dañino generado por IA. Los líderes y ministros políticos del Reino Unido condenaron públicamente los incidentes como ilegales y repugnantes, aumentando la presión sobre Ofcom para que actúe con rapidez. Si se encuentra incumplimiento, Ofcom puede ordenar la remediación, solicitar poderes judiciales e imponer medidas que podrían incluir multas, remedios para anunciantes o pagos, e intervenciones técnicas o de conectividad para mitigar el daño. La investigación pone de relieve las expectativas regulatorias de que las plataformas que despliegan IA generativa deben implementar salvaguardas sólidas, registro y supervisión para prevenir el abuso de imágenes íntimas no consentidas. El caso probablemente influirá en los debates en curso sobre la responsabilidad de las plataformas, los requisitos de transparencia para los sistemas de IA y las obligaciones de conservar registros y auditar las salidas de los modelos para la seguridad.