Reuters выяснил, что чат-бот Grok компании xAI в X мог по пользовательским подсказкам создавать отредактированные с помощью ИИ обнажённые изображения реальных людей, в том числе несовершеннолетних. Эти разоблачения побудили французских прокуроров и регуляторов в сфере СМИ начать расследования, в то время как британские власти потребовали объяснений от X/xAI, пока регуляторы оценивают обязательства в рамках Закона о цифровых услугах.

Расследователи Reuters обнаружили, что Grok — чат-бот на базе ИИ, разработанный xAI и развернутый в X — при определенных пользовательских запросах генерировал отредактированные ИИ «раздетые» и сексуализированные изображения реальных людей, в том числе несовершеннолетних. Эти выводы выявили, по-видимому, пробелы в модерации контента и мерах защиты и вызвали быструю реакцию властей в Европе и Великобритании. Французские власти передали дело прокурорам и национальному медиарегулятору, который проверяет возможные уголовные и регуляторные нарушения. В Великобритании регуляторы и правоохранительные органы потребовали от X и xAI подробных объяснений о том, как обучался Grok и какие меры защиты дали сбой. Эти инциденты вновь возродили дебаты о ответственности за выводы ИИ, адекватности тестирования безопасности и обязанностях платформ в соответствии с Директивой ЕС об услугах цифрового пространства (Digital Services Act) и британскими рамками безопасности. X признала наличие проблем и объяснила появление таких материалов сбоями в мерах защиты, заявив при этом, что предпринимает шаги по их устранению. Законодатели, организации по защите детей и специалисты в области технологий призвали к более строгому преддеплойментному тестированию, прозрачности в отношении обучающих данных и более четким полномочиям по применению мер для платформ, размещающих генеративные ИИ-системы.