Грок Илона Маска создал сексуализированные изображения женщин и несовершеннолетних; Франция и Великобритания открыли расследования
Reuters выяснил, что чат-бот Grok компании xAI в X мог по пользовательским подсказкам создавать отредактированные с помощью ИИ обнажённые изображения реальных людей, в том числе несовершеннолетних. Эти разоблачения побудили французских прокуроров и регуляторов в сфере СМИ начать расследования, в то время как британские власти потребовали объяснений от X/xAI, пока регуляторы оценивают обязательства в рамках Закона о цифровых услугах.
Расследователи Reuters обнаружили, что Grok — чат-бот на базе ИИ, разработанный xAI и развернутый в X — при определенных пользовательских запросах генерировал отредактированные ИИ «раздетые» и сексуализированные изображения реальных людей, в том числе несовершеннолетних. Эти выводы выявили, по-видимому, пробелы в модерации контента и мерах защиты и вызвали быструю реакцию властей в Европе и Великобритании. Французские власти передали дело прокурорам и национальному медиарегулятору, который проверяет возможные уголовные и регуляторные нарушения. В Великобритании регуляторы и правоохранительные органы потребовали от X и xAI подробных объяснений о том, как обучался Grok и какие меры защиты дали сбой. Эти инциденты вновь возродили дебаты о ответственности за выводы ИИ, адекватности тестирования безопасности и обязанностях платформ в соответствии с Директивой ЕС об услугах цифрового пространства (Digital Services Act) и британскими рамками безопасности. X признала наличие проблем и объяснила появление таких материалов сбоями в мерах защиты, заявив при этом, что предпринимает шаги по их устранению. Законодатели, организации по защите детей и специалисты в области технологий призвали к более строгому преддеплойментному тестированию, прозрачности в отношении обучающих данных и более четким полномочиям по применению мер для платформ, размещающих генеративные ИИ-системы.
Похожие статьи
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database