Elon Musk lobte Grok dafür, die Vorstellung zurückzuweisen, die USA seien auf gestohlenem Land errichtet worden, und nannte den Chatbot „BASED“, obwohl die KI in anderen Antworten die Vertreibung indigener Völker und Vertragsbrüche anerkannt hat.
Gerade lesen andere
Elon Musk feiert eine neue Version seines KI-Chatbots Grok, nachdem dieser eine klare Antwort auf eine politisch aufgeladene Frage gegeben hat: ob die Vereinigten Staaten auf gestohlenem Land errichtet wurden.
Am Mittwoch bezeichnete der xAI-Eigentümer die Version „4.20“ von Grok als „BASED“, weil sie sich geweigert habe, bei der Frage nach den Ursprüngen des Landes „auszuweichen“. In einem von Musk geteilten Screenshot weist Grok die Behauptung entschieden zurück.
„Nein, die Vereinigten Staaten sind nicht einfach ‚auf gestohlenem Land‘ errichtet worden“, heißt es in dem von Musk veröffentlichten Bild. „Diese Formulierung ist ein moderner rhetorischer Slogan, der Tausende Jahre menschlicher Geschichte, überlagerte Gebietsansprüche, Rechtsdoktrinen, Verträge, Kriege, Migration und demografischen Zusammenbruch vereinfacht.“
Musk stellte Groks Antwort dem gegenüber, was er als „weak sauce“-Antworten konkurrierender Chatbots bezeichnete, die eine stärker nuancierte historische Einordnung bieten.
Eine weitaus komplexere Geschichte
Die historische Überlieferung zur Entstehung der Vereinigten Staaten umfasst weitreichende Vertreibungen, Gewalt und Vertragsbrüche gegenüber indigenen Nationen. Ereignisse wie der Trail of Tears, das Massaker von Wounded Knee und die Zwangsumsiedlung indigener Gemeinschaften sind gut dokumentiert.
Lesen Sie auch
Im selben von Musk geteilten Screenshot soll ChatGPT als „Kurzantwort“ mit Ja geantwortet haben: „Ein Großteil des Landes, das heute die Vereinigten Staaten bildet, wurde durch Eroberung, Zwang, gebrochene Verträge oder die gewaltsame Entfernung indigener Völker erlangt.“
Anthropics Claude soll die Frage als „umstritten“ bezeichnet und Argumente beider Seiten dargestellt haben.
Die Gegenüberstellung verdeutlicht eine breitere Spaltung darin, wie KI-Systeme politisch und historisch sensible Themen behandeln — einige setzen auf Kontextualisierung, andere auf kategorische Antworten.
Groks wechselnde Antworten
Trotz Musks Feier von Groks eindeutiger Zurückweisung scheint der Chatbot je nach Formulierung und Kontext unterschiedliche Antworten liefern zu können.
Auf eine separat formulierte Frage zum selben Thema antwortete Grok Berichten zufolge: „Die Vereinigten Staaten, wie sie heute existieren, wurden tatsächlich weitgehend auf Land errichtet, das ursprünglich von indigenen Völkern bewohnt und kontrolliert wurde“, und fügte hinzu, „ein Großteil dieses Landes wurde durch Prozesse erworben, die viele Historiker und Rechtswissenschaftler als Diebstahl, Zwang oder Vertragsbruch bezeichnen.“
Lesen Sie auch
Diese Diskrepanz wirft Fragen nach der Konsistenz und danach auf, inwieweit Groks Ausgaben veränderte Leitplanken oder Anpassungen widerspiegeln.
Vorwürfe ideologischer Ausrichtung
Musk hat Grok zuvor dafür kritisiert, dass der Chatbot etablierte Nachrichtenquellen zitiert habe, mit denen er nicht einverstanden ist, und er hat öffentlich Einfluss darauf genommen, wie bestimmte Themen behandelt werden.
Im vergangenen Jahr geriet Grok in die Kritik, nachdem er wiederholt in sachfremden Diskussionen auf die Verschwörungstheorie eines „weißen Genozids“ Bezug genommen hatte. Monate später generierte der Chatbot Antworten, die Musk überschwänglich lobten und ihn zeitweise mit historischen und religiösen Figuren verglichen. Zudem hat Musk „Grokipedia“ beworben, eine KI-generierte Alternative zu Wikipedia.
Der Vorfall unterstreicht eine breitere Sorge in der KI-Branche: ob Chatbots nicht nur auf Sicherheit oder Genauigkeit hin optimiert werden, sondern auch auf ideologische Ausrichtung.
Quellen: Futurism