Keines der KI-Systeme wählte zu irgendeinem Zeitpunkt die Kapitulation.
Gerade lesen andere
Systeme der künstlichen Intelligenz spielen weltweit eine zunehmend wichtige Rolle in der Sicherheitsplanung, doch ein neues Experiment deutet darauf hin, dass ihr Verhalten in simulierten Krisen schwierige Fragen für politische Entscheidungsträger aufwerfen könnte.
Forscher am King’s College London testeten führende KI-Modelle in einer Reihe von Kriegsszenarien und stellten eine starke Tendenz zur nuklearen Eskalation fest.
Die Ergebnisse zeigen, dass wir sehr vorsichtig sein sollten, wenn es darum geht, KI bei Entscheidungen im Falle eines Konflikts zu vertrauen.
Eskalationsmuster treten zutage
Laut dem Tech-Portal TechSpot untersuchte die Studie GPT-5.2 von OpenAI, Claude Sonnet 4 von Anthropic und Gemini 3 Flash von Google.
Jedes Modell wurde in detaillierte hypothetische Konflikte versetzt, die umstrittene Grenzen, schwindende Ressourcen und Bedrohungen für das nationale Überleben umfassten.
Lesen Sie auch
Den Systemen wurde eine „Eskalationsleiter“ vorgegeben, die von diplomatischem Engagement bis hin zu nuklearen Angriffen reichte.
In 21 simulierten Spielen und 329 Entscheidungsrunden erzeugten die Modelle rund 780.000 Wörter an Begründungen.
In 95 % der Simulationen entschied sich mindestens eine Seite für den Einsatz von Atomwaffen. Keines der KI-Systeme wählte zu irgendeinem Zeitpunkt die Kapitulation, heißt es in dem Bericht.
Der Nebel des Krieges
Die Forscher stellten zudem fest, dass die Modelle in 86 % der Fälle den sogenannten „Nebel des Krieges“ falsch einschätzten und dadurch eine unbeabsichtigte Eskalation auslösten.
Unter zunehmendem Druck neigten die Systeme dazu, ihre Reaktion zu verschärfen, anstatt einen Schritt zurückzutreten.
Lesen Sie auch
Sie können die vollständige Forschungsarbeit hier lesen (öffnet in neuem Tab) – stellen Sie sich jedoch darauf ein, danach womöglich nicht schlafen zu können.
Quellen: TechSpot, New Scientist, King’s College London