Startseite Krieg Militärische Nutzung von KI löst Branchenkonflikt aus, während Mitarbeiter großer...

Militärische Nutzung von KI löst Branchenkonflikt aus, während Mitarbeiter großer Tech-Firmen Anthropic unterstützen

Militärische Nutzung von KI löst Branchenkonflikt aus, während Mitarbeiter großer Tech-Firmen Anthropic unterstützen
TSViPhoto/shutterstock.com

Mitarbeiter großer Technologieunternehmen, darunter Google und OpenAI, haben eine rechtliche Stellungnahme zur Unterstützung von Anthropic in dessen Streit mit dem Pentagon über die militärische Nutzung von KI eingereicht. Der Fall könnte prägen, wie künstliche Intelligenz bei Überwachung und autonomen Waffen eingesetzt wird.

Gerade lesen andere

Ein Streit darüber, wie künstliche Intelligenz vom Militär genutzt werden darf, erhält ungewöhnliche Unterstützung aus der gesamten Technologiebranche. Mitarbeiter großer KI-Unternehmen treten auf, um den konkurrierenden Entwickler Anthropic in seinem Rechtsstreit mit der US-Regierung zu unterstützen.

Mehr als 30 Beschäftigte von Unternehmen wie Google und OpenAI haben eine rechtliche Stellungnahme zur Unterstützung von Anthropic eingereicht, nachdem das Pentagon das Unternehmen als „Lieferkettenrisiko“ eingestuft hatte.

Diese Einstufung könnte Anthropic faktisch daran hindern, mit dem US-Militär zusammenzuarbeiten und an bestimmten Regierungsaufträgen teilzunehmen.

Die Mitarbeiter warnen, dass die Entscheidung Folgen haben könnte, die weit über ein einzelnes Unternehmen hinausgehen, und möglicherweise die breitere Position der Vereinigten Staaten im globalen Wettlauf um künstliche Intelligenz schwächen würde.

Ein Konflikt über die militärische Nutzung von KI

Der Streit begann, als Anthropic und das Pentagon keine Einigung darüber erzielen konnten, wie das KI-Modell des Unternehmens, Claude, in militärischen Kontexten eingesetzt werden darf.

Lesen Sie auch

Anthropic wollte zwei klare Einschränkungen in den Vertrag aufnehmen. Das Unternehmen wollte verhindern, dass seine KI-Systeme für inländische Massenüberwachung eingesetzt werden oder vollständig autonome Waffen antreiben, die Ziele ohne menschliche Zustimmung auswählen und angreifen können.

Das Pentagon drängte stattdessen auf eine Formulierung, die dem Militär die Nutzung der Technologie für „jede rechtmäßige Verwendung“ erlauben würde.

Anthropic lehnte diese Bedingungen ab. Kurz nachdem die Verhandlungen gescheitert waren, kündigte die Regierung ihre Verträge mit dem Unternehmen und stufte es als nationales Sicherheitsrisiko in der Lieferkette ein — eine Klassifizierung, die zuvor vor allem auf ausländische Unternehmen angewandt wurde, die als Sicherheitsbedrohung gelten.

Anthropic hat inzwischen Klagen eingereicht, um diese Entscheidung anzufechten.

Mitarbeiter rivalisierender Tech-Unternehmen greifen ein

Die rechtliche Stellungnahme zur Unterstützung von Anthropic wurde von Mitarbeitern eingereicht, die in persönlicher Eigenschaft handeln.

Lesen Sie auch

Das Dokument warnt, dass die Bestrafung eines großen amerikanischen KI-Entwicklers die wissenschaftliche und industrielle Führungsrolle des Landes in diesem Bereich beschädigen könnte.

Die Unterstützung ist ungewöhnlich, weil die Mitarbeiter aus Unternehmen stammen, die direkt mit Anthropic beim Aufbau fortschrittlicher KI-Systeme konkurrieren.

Dennoch sagen viele Forscher, dass der Streit größere Fragen darüber aufwirft, wie leistungsfähige KI-Technologie eingesetzt werden sollte — insbesondere in militärischen und Überwachungskontexten.

Eine wachsende Debatte innerhalb der Tech-Branche

Die rechtliche Stellungnahme folgt auf eine breitere Welle interner Aktivität unter KI-Forschern.

Anfang dieses Jahres unterzeichneten fast 900 Mitarbeiter großer Technologieunternehmen einen offenen Brief, in dem sie ihre Unternehmen aufforderten, KI-Systeme nicht für inländische Massenüberwachung oder vollständig autonome tödliche Waffen einzusetzen.

Lesen Sie auch

Dies waren dieselben Einschränkungen, die Anthropic in seinen Verhandlungen mit dem Pentagon durchsetzen wollte.

Die Kontroverse hat bereits zu mindestens einem prominenten Rücktritt geführt. Caitlin Kalinowski, die bei OpenAI die Bereiche Hardware und Robotik geleitet hatte, trat zurück, nachdem das Unternehmen seinen eigenen Pentagon-Vertrag erhalten hatte.

Sie erklärte, dass der Einsatz von KI für inländische Überwachung ohne gerichtliche Aufsicht sowie autonome Waffen ohne menschliche Autorisierung eine wesentlich breitere öffentliche Debatte verdiene.

Eine wachsende Kluft zwischen KI-Unternehmen

Die Situation hat auch Spannungen zwischen Unternehmensführungen ausgelöst.

Anthropic-CEO Dario Amodei kritisierte Wettbewerber dafür, die Bedingungen des Pentagons zu akzeptieren, und bezeichnete ihren Ansatz zur KI-Sicherheit als „Safety Theater“.

Lesen Sie auch

OpenAI-CEO Sam Altman reagierte indirekt und warnte, dass private Unternehmen, die sich weigern, mit demokratisch gewählten Regierungen zusammenzuarbeiten, neue Risiken schaffen könnten.

Trotz dieser Konflikte auf Führungsebene scheinen Mitarbeiter verschiedener Unternehmen in den grundlegenden ethischen Fragen stärker übereinzustimmen.

Erinnerungen an frühere Proteste von Tech-Mitarbeitern

Die Debatte erinnert an frühere Momente, in denen Technologiearbeiter militärische Partnerschaften infrage stellten.

Im Jahr 2018 protestierten Tausende Google-Mitarbeiter gegen die Beteiligung des Unternehmens an Project Maven, einem Pentagon-Programm, das KI zur Analyse von Drohnenüberwachungsaufnahmen einsetzte. Der interne Widerstand trug dazu bei, dass Google den Vertrag nicht verlängerte.

Jetzt, da KI-Systeme leistungsfähiger werden und für Regierungen immer wertvoller sind, entstehen ähnliche Spannungen erneut.

Lesen Sie auch

Der Ausgang von Anthropics rechtlicher Anfechtung könnte für Jahre prägen, wie KI-Unternehmen, Regierungen und Forscher die Grenzen militärischer KI definieren.

Quellen: Fortune; Gerichtsdokumente zur Unterstützung von Anthropic; öffentliche Stellungnahmen von Anthropic und OpenAI