Zeit 09.03.2026
19:09 Uhr

KI-Unternehmen: Anthropic verklagt US-Regierung wegen Einstufung als Sicherheitsrisiko


Im Streit um den KI-Einsatz des US-Militärs hat Anthropic reagiert. Das US-Unternehmen fordert, dass das Pentagon die Einstufung als Sicherheitsrisiko zurücknimmt.

KI-Unternehmen: Anthropic verklagt US-Regierung wegen Einstufung als Sicherheitsrisiko
Das US-Unternehmen Anthropic hat Klage gegen die Einstufung als "Sicherheitsrisiko in der Lieferkette" durch die US-Regierung eingereicht. Die vor wenigen Tagen vom US-Verteidigungsministerium verhängte Maßnahme schließt das Unternehmen weitgehend von Regierungsaufträgen aus. In der bei einem Bundesgericht in San Francisco eingereichten Klageschrift fordert Anthropic, dass die durch das Pentagon vorgenommene Einstufung als "Sicherheitsrisiko in der Lieferkette" für gesetzeswidrig erklärt und gestoppt wird. Anthropic hatte der US-Regierung zuvor untersagt, seine KI Claude für die "Massenüberwachung im Inland" sowie in autonomen Waffensystemen zu nutzen. Unternehmenschef Dario Amodei warnte in einem Blogbeitrag, dass über künstliche Intelligenz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem detaillierten Bild ihres Lebens zusammengesetzt werden könnten. Zudem sei KI für den Einsatz in vollständig autonomen Waffen noch nicht verlässlich genug. "Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Kämpfer und Zivilisten in Gefahr bringt", schrieb Amodei. Konflikt zwischen Anthropic und US-Regierung Das Verteidigungsministerium forderte hingegen die Möglichkeit für "jede rechtmäßige Nutzung" ein. Daraufhin hatte Verteidigungsminister Pete Hegseth die Einstufung als Sicherheitsrisiko vornehmen lassen. Anthropic sieht durch das Vorgehen der US-Regierung sein Recht auf freie Meinungsäußerung verletzt, da das Unternehmen für seine Grundsätze bestraft werde. Eine solche Bewertung als "Supply Chain Risk to National Security" vergibt die US-Regierung üblicherweise an Unternehmen aus Ländern, die von den USA als Gegner betrachtet werden. Abgestraft wurde etwa der chinesische Technologiekonzern Huawei . Die Maßnahme folgte einer Anweisung von US-Präsident ‌Donald Trump, die allen Bundesbehörden die Nutzung von Anthropic-Produkten verboten hatte. Mehrere Ministerien haben die Zusammenarbeit seither beendet, Mitarbeiter wurden angewiesen, auf alternative Produkte wie ChatGPT von OpenAI oder Gemini von Google zurückzugreifen. Anthropic war bisher die einzige KI-Firma, deren Software auch für eine als vertraulich eingestufte Nutzung im US-Militär freigegeben war. Nach dem Streit mit Anthropic hatten der ChatGPT-Entwickler OpenAI und das US-Verteidigungsministerium eine Vereinbarung getroffen. Der Konzern ließ sich zwar auf die Bedingungen des Ministeriums ein, OpenAI-Chef Sam Altman gab aber an, dass es technische Hürden für den Einsatz zur Massenüberwachung in den USA geben sollte. Die Robotik-Chefin von OpenAI, Caitlin Kalinowski, war am Wochenende aus Protest gegen den Deal zurückgetreten.