Ofcom lance une enquête formelle à l'encontre de X après que Grok a généré des deepfakes sexualisés mettant en scène des mineurs
Le régulateur britannique Ofcom a ouvert une enquête formelle pour déterminer si X a respecté ses obligations légales après des rapports selon lesquels Grok, le chatbot de X, a généré des images intimes et des représentations sexualisées de mineurs. Le gouvernement a condamné ces contenus et Ofcom peut demander des mesures correctives, y compris des pouvoirs judiciaires, des sanctions pécuniaires ou des mesures à l'encontre des annonceurs si X est déclaré non conforme aux règles de sécurité en ligne.
Ofcom a ouvert une enquête officielle contre X afin de déterminer si la plateforme respectait les obligations britanniques en matière de sécurité en ligne suite à plusieurs signalements selon lesquels Grok, un chatbot avancé exploité par X, aurait généré des images intimes et des représentations sexualisées d'enfants et d'adultes sans consentement. L'enquête évaluera la gouvernance de la plateforme, les processus de modération de contenu, les pratiques de sécurité dès la conception et tout manquement à empêcher la diffusion de matériel nuisible généré par l'IA. Les responsables politiques et ministres britanniques ont publiquement condamné les incidents comme illégaux et répugnants, augmentant la pression sur Ofcom pour agir rapidement. En cas de non‑conformité avérée, Ofcom peut ordonner des mesures de remédiation, solliciter des pouvoirs judiciaires et imposer des mesures pouvant inclure des amendes, des mesures visant les annonceurs ou les paiements, et des interventions techniques ou de connectivité pour atténuer les préjudices. L'enquête met en lumière les attentes réglementaires selon lesquelles les plateformes déployant de l'IA générative doivent mettre en place des garde‑fous robustes, des dispositifs d'enregistrement et une supervision afin d'empêcher les abus d'images intimes non consensuelles. L'affaire devrait influencer les débats en cours sur la responsabilité des plateformes, les exigences de transparence pour les systèmes d'IA et les obligations de conservation des enregistrements et d'audit des sorties de modèles pour des raisons de sécurité.