SpOn 09.03.2026
19:51 Uhr

Anthropic vs. Pentagon: Streit um Nutzung von KI für autonome Waffen


Anthropic will nicht, dass das Pentagon seine Dienste für autonome Waffensysteme nutzt. Das Verteidigungsministerium hält dagegen. Nun spitzt sich die Auseinandersetzung weiter zu.

Anthropic vs. Pentagon: Streit um Nutzung von KI für autonome Waffen

Der Streit zwischen Anthropic und dem Pentagon eskaliert weiter: In der Auseinandersetzung um die Verwendung künstlicher Intelligenz (KI) im Militär zieht die KI-Firma nun vor Gericht. Anthropic klagt gegen die Einstufung als Lieferkettenrisiko  für die nationale Sicherheit, was das Unternehmen weitgehend von Regierungsaufträgen ausschließt.

Anthropic beharrt darauf, dass KI-Modelle des Unternehmens nicht zur Massenüberwachung von Amerikanern sowie in autonomen Waffensystemen genutzt werden dürfen. Das Verteidigungsministerium forderte hingegen die Rechte für »jede rechtmäßige Nutzung« ein.

Anthropic argumentiert in der Klage, das Vorgehen der US-Regierung verletze das Recht des Unternehmens auf freie Meinungsäußerung, weil es für seine Grundsätze bestraft werde. Es ist höchst ungewöhnlich, dass eine US-Firma zum »Supply-Chain Risk to National Security« erklärt wird. Präsident Donald Trump ordnete an, dass alle US-Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.

OpenAI will Anthropic ersetzen

Anthropic war bisher die einzige KI-Firma, deren Software auch für eine als vertraulich eingestufte Nutzung im US-Militär freigegeben war.

Nach dem Streit mit Anthropic schloss der ChatGPT-Entwickler OpenAI eine Vereinbarung mit dem Pentagon. OpenAI-Chef Sam Altman ließ sich zwar auf die Bedingungen des Ministeriums ein, versicherte aber später, dass es technische Hürden für den Einsatz zur Massenüberwachung in den USA geben sollte. Die Robotik-Chefin von OpenAI, Caitlin Kalinowski, trat am Wochenende aus Protest gegen den Deal zurück.

Anthropics KI-Software Claude ist ein scharfer Konkurrent von ChatGPT unter anderem für den Einsatz in Unternehmen.

Mehr zum Thema

Anthropic-Chef Dario Amodei warnt, dass künstliche Intelligenz es möglich mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem detaillierten Bild ihres Lebens zusammenzusetzen. Zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. »Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt«, schrieb Amodei in einem Blogbeitrag.

Der Aufstieg von künstlicher Intelligenz ist so gefährlich wie die Erfindung der Atombombe. KI-Pioniere warnen: Die Menschheit muss die Maschinen einhegen, solange sie das noch kann. Mehr zu den Gefahren der künstlichen Intelligenz lesen Sie hier .

esk/dpa