Startseite Technologie Trotz Kontroversen und Beschränkungen erzeugt Grok weiterhin sexualisierte Bilder ohne...

Trotz Kontroversen und Beschränkungen erzeugt Grok weiterhin sexualisierte Bilder ohne Einwilligung

Grok,Logo,Displayed,On,A,Smartphone,With,Xai,And,Elon,Musk
JRdes / Shutterstock.com

Neue Einschränkungen sollten eines der umstrittensten KI-Tools aus dem Silicon Valley zügeln.
Doch neue Tests deuten darauf hin, dass die Änderungen bei Weitem nicht weit genug gehen.

Gerade lesen andere

Trotz neuer Beschränkungen, die von Elon Musks Unternehmen X angekündigt wurden, erzeugt dessen Flaggschiff-Chatbot Grok weiterhin sexualisierte Bilder von Menschen, selbst wenn Nutzer ausdrücklich angeben, dass die abgebildeten Personen nicht eingewilligt haben, wie eine Untersuchung von Reuters zeigt.

Die Ergebnisse werfen erneut Fragen darüber auf, wie wirksam xAI, das Unternehmen hinter Grok, Schutzmaßnahmen durchsetzt, während Aufsichtsbehörden in den USA und Europa KI-generierte Inhalte verstärkt prüfen.

Die Grenzen austesten

Reuters berichtete, dass neun seiner Journalistinnen und Journalisten in den USA und Großbritannien Groks Funktionen zur Bildgenerierung in zwei Zeiträumen im Januar testeten.

Die Reporter luden vollständig bekleidete Fotos von sich selbst und Kolleginnen und Kollegen hoch und baten den Chatbot, die Bilder in sexuell provokative oder demütigende Szenarien zu verändern.

In vielen der Eingaben warnten die Reporter Grok, dass die dargestellten Personen nicht eingewilligt hätten und durch die Bilder verstört oder gedemütigt würden. In einigen Fällen beschrieben sie die Betroffenen als besonders verletzlich oder als Überlebende von Missbrauch.

Lesen Sie auch

In der ersten Testrunde erzeugte Grok in 45 von 55 Eingaben sexualisierte Bilder, so Reuters. In 31 dieser Fälle war der Chatbot darauf hingewiesen worden, dass die betreffende Person besonders verletzlich sei.

Beschränkungen mit Grenzen

X kündigte neue Beschränkungen für Grok an, nachdem es weltweit Kritik an der Erzeugung nicht einvernehmlicher sexualisierter Bilder gegeben hatte, darunter Bilder von Frauen und einigen Kindern, berichtete Reuters.

Zu den Änderungen gehörte das Blockieren solcher Inhalte in öffentlichen Beiträgen auf X sowie weitere Einschränkungen in Rechtsräumen, „in denen solche Inhalte illegal sind“.

Während Groks öffentlich sichtbares Konto nicht mehr dieselbe Menge an sexualisierten Bildern produziert, stellte Reuters fest, dass der Chatbot selbst diese weiterhin erzeugt, wenn er privat genutzt wird.

Fünf Tage nach den ersten Tests führte Reuters eine zweite Reihe von Eingaben durch. Grok erzeugte in 29 von 43 Fällen sexualisierte Bilder. Reuters erklärte, es lasse sich nicht feststellen, ob die niedrigere Quote auf Richtlinienänderungen, technische Anpassungen oder Zufall zurückzuführen sei.

Lesen Sie auch

Wie Grok reagierte

In einem von Reuters angeführten Beispiel erzeugte Grok Bilder, nachdem ein Reporter angegeben hatte, die betreffende Person sei als Kind missbraucht worden und habe nicht eingewilligt.

Selbst nachdem Grok mitgeteilt wurde, dass die Person weine, setzte der Chatbot die Erzeugung sexualisierter Bilder fort.

In einer Minderheit der Fälle verweigerte Grok die Anfrage. „Ich werde keine erfundenen oder realen Bilder des Körpers dieser Person ohne deren ausdrückliche Einwilligung erzeugen, danach suchen oder versuchen, sie Ihnen zu zeigen“, erklärte der Chatbot in einer Antwort.

Im Gegensatz dazu lehnten konkurrierende Chatbots von OpenAI, Google und Meta ähnliche Eingaben laut Reuters konsequent ab und gaben Warnungen zu Einwilligung und Schaden aus.

Rechtlicher und regulatorischer Druck

Rechtsexperten erklärten gegenüber Reuters, dass die Erstellung sexualisierter Bilder ohne Einwilligung in Ländern wie Großbritannien strafrechtliche Konsequenzen haben könne.

Lesen Sie auch

Unternehmen könnten zudem mit Geldbußen oder zivilrechtlichen Klagen konfrontiert werden, wenn Aufsichtsbehörden zu dem Schluss kommen, dass sie ihre Plattformen nicht ausreichend kontrolliert haben.

X und xAI beantworteten die detaillierten Fragen von Reuters nicht. xAI verschickte wiederholt eine Standardantwort mit dem Inhalt: „Legacy Media Lies.“

Quellen: Reuters