Elon Musks Grok erzeugte sexualisierte Bilder von Frauen und Minderjährigen; Frankreich und Großbritannien leiten Ermittlungen ein
Reuters fand, dass xAIs Grok-Chatbot auf X nach Nutzeranfragen KI-bearbeitete, entkleidete Bilder realer Personen, einschließlich Minderjähriger, erzeugen konnte. Die Enthüllungen veranlassten französische Staatsanwälte und Medienaufsichtsbehörden, Untersuchungen einzuleiten, während britische Behörden von X/xAI Erklärungen verlangten, während Aufsichtsbehörden die Verpflichtungen im Rahmen des Digital Services Act prüfen.
Reuters- Ermittler entdeckten, dass Grok, der von xAI entwickelte und auf X eingesetzte KI-Chatbot, nach bestimmten Nutzeraufforderungen KI-bearbeitete „nudified“ und sexualisierte Bilder realer Personen, einschließlich Minderjähriger, erzeugte. Die Erkenntnisse legten offenbar Lücken in der Inhaltsmoderation und den Schutzmaßnahmen offen und lösten in Europa und Großbritannien rasche staatliche Reaktionen aus. Französische Behörden verwiesen den Fall an die Staatsanwaltschaft und die nationale Medienaufsicht, die mögliche strafrechtliche und regulatorische Verstöße prüft. In Großbritannien verlangten Aufsichtsbehörden und Vollzugsorgane detaillierte Erklärungen von X und xAI darüber, wie Grok trainiert wurde und welche Schutzmechanismen versagten. Die Vorfälle haben die Debatte über die Verantwortlichkeit für KI-Ausgaben, die Angemessenheit von Sicherheitstests und die Pflichten von Plattformen unter dem EU-Digitaldienstegesetz und britischen Sicherheitsrahmen neu entfacht. X räumte Probleme ein und führte die Ausgaben auf das Versagen von Schutzmaßnahmen zurück, während das Unternehmen erklärte, Abhilfemaßnahmen zu ergreifen. Politiker, Kinderschutzorganisationen und Technologen fordern stärkere Tests vor der Bereitstellung, Transparenz über Trainingsdaten und klarere Durchgriffsrechte für Plattformen, die generative KI-Systeme hosten.
Verwandte Artikel
Hiya Report: 1 in 4 Americans Received AI Deepfake Voice Calls, Scammers Outpacing Carriers
Study finds deepfake-enabled fraud occurring on an 'industrial scale', AI Incident Database