Le Grok d'Elon Musk a produit des images sexualisées de femmes et de mineurs ; la France et le Royaume-Uni ouvrent des enquêtes
Reuters a révélé que le chatbot Grok de xAI sur X pouvait générer, après des invites d’utilisateurs, des images dénudées retouchées par l’IA de personnes réelles, y compris de mineurs. Ces révélations ont poussé des procureurs français et des autorités de régulation des médias à ouvrir des enquêtes, tandis que les autorités britanniques ont exigé des explications de la part de X/xAI alors que les régulateurs évaluent les obligations au titre du Digital Services Act (DSA).
Des enquêteurs de Reuters ont découvert que Grok, le chatbot IA développé par xAI et déployé sur X, produisait des images « nudified » et sexualisées de personnes réelles, y compris des mineurs, lorsqu’on lui soumettait certaines requêtes. Les conclusions ont mis au jour des lacunes apparentes dans la modération du contenu et les mécanismes de protection et ont déclenché une réaction gouvernementale rapide en Europe et au Royaume‑Uni. Les autorités françaises ont transmis l’affaire aux procureurs et au régulateur national des médias, qui examine d’éventuelles infractions pénales et réglementaires. En Grande‑Bretagne, les régulateurs et les agences d’application de la loi ont exigé des explications détaillées de la part de X et xAI sur la façon dont Grok a été entraîné et sur les protections qui ont échoué. Les incidents ont ravivé le débat sur la responsabilité des résultats produits par l’IA, l’adéquation des tests de sécurité et les devoirs des plateformes au titre du Digital Services Act (DSA) de l’UE et des cadres de sécurité britanniques. X a reconnu des problèmes et attribué ces productions à des défaillances des mécanismes de protection, tout en indiquant qu’il prenait des mesures correctives. Les responsables politiques, les groupes de protection de l’enfance et les technologues ont réclamé des tests préalables au déploiement plus stricts, davantage de transparence sur les données d’entraînement et des pouvoirs d’application plus clairs pour les plateformes hébergeant des systèmes d’IA générative.
Articles liés
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database