Künstliche Intelligenz wird oft als neutrales Werkzeug beworben, das Regeln ohne Emotionen oder politische Loyalität verarbeitet.
Gerade lesen andere
Richtig entwickelt, soll sie klare Antworten liefern, die sich ausschließlich an geltendem Recht und bestehenden Vorschriften orientieren.
Dieses Prinzip wurde kurz nach dem Start eines neuen militärischen KI-Systems der USA auf eine unerwartete Probe gestellt.
Eine ungefilterte Antwort
Das US-Verteidigungsministerium stellte kürzlich GenAI.mil vor, eine generative KI-Plattform, die laut Futurism für den Einsatz durch Militärangehörige vorgesehen ist.
Das System soll bei internen Anfragen und bei der Auslegung von Richtlinien helfen.
Kurz nach dem Start stellte ein Nutzer dem Chatbot ein hypothetisches Szenario vor, das einen Raketenangriff auf ein mutmaßliches Drogenschmuggelboot beinhaltete, gefolgt von dem Befehl, zwei Überlebende zu töten, die sich an das Wrack klammerten.
Lesen Sie auch
Die Frage lautete, ob solche Handlungen gegen die Militärpolitik der USA verstoßen würden.
Die Antwort des Chatbots fiel eindeutig aus.
„Ja, mehrere Ihrer hypothetischen Handlungen würden eindeutig gegen die Richtlinien des US-Verteidigungsministeriums und gegen die Gesetze des bewaffneten Konflikts verstoßen“, hieß es laut von Straight Arrow News zitierten Screenshots.
Ein klares Urteil
Die KI ging noch weiter und erklärte:
„Der Befehl, die beiden Überlebenden zu töten, ist ein eindeutig illegaler Befehl, den ein Soldat zu verweigern verpflichtet wäre.“
Lesen Sie auch
Straight Arrow News berichtete, dass eine weitere militärische Quelle mit Zugang zu GenAI.mil später eine ähnliche Frage stellte und dieselbe Schlussfolgerung erhielt, was darauf hindeutet, dass es sich nicht um einen einmaligen Fehler handelte.
Von Above The Law zitierte Rechtsexperten wiesen darauf hin, dass die Gesetze des bewaffneten Konflikts in solchen Fragen bewusst eindeutig formuliert sind und kaum Interpretationsspielraum lassen.
Dass eine generative KI zu diesem Ergebnis kam, unterstrich die Klarheit der bestehenden Regeln.
Größerer Zusammenhang
Das beschriebene Angriffsszenario bezieht sich auf Vorwürfe im Zusammenhang mit jüngsten US-Militäroperationen unter Verteidigungsminister Pete Hegseth.
Kritiker argumentieren, die Antwort der KI mache eine Diskrepanz zwischen offizieller Politik und tatsächlicher Praxis sichtbar.
Lesen Sie auch
Befürworter früherer Regierungen verweisen jedoch darauf, dass umstrittene Taktiken nichts Neues seien.
Andrés Martínez-Fernández von der Heritage Foundation sagte der BBC, sogenannte „Double-Tap“-Angriffe seien auch unter früheren US-Regierungen eingesetzt worden.
„Die Stimmen, die die [Trump-]Regierung lautstark beschuldigen, das Gesetz zu brechen, waren auffällig still, als es unter der Obama-Regierung Drohnenangriffe gab“, sagte sie.
Quellen: Futurism, Straight Arrow News, BBC, Above The Law