Anthropic hat sich an die Bundesgerichte gewandt, um gegen eine umfassende schwarze Liste der Donald-Trump-Regierung vorzugehen, die das KI-Startup als Bedrohung für die nationale Sicherheit brandmarkte, weil es sich weigerte, Sicherheitsprotokolle zu lockern. Die Klage wurde am Montag beim US-Bezirksgericht Nordkalifornien eingereicht und richtet sich gegen Maßnahmen, die nach Anweisung von Präsident Trump im Februar ergriffen wurden, um die Nutzung von Anthropic-Technologie durch Bundesbehörden zu stoppen. Dies folgte öffentlichen Äußerungen von Anthropic-CEO Dario Amodei, der sagte, das Unternehmen werde der Pentagon-Anfrage nach uneingeschränktem Zugriff auf Claude nicht nachkommen. Die Klage benennt mehrere Bundesbehörden und hochrangige Beamte als Beklagte, darunter Verteidigungsminister Pete Hegseth, Schatzkanzler Scott Bessent und Außenminister Marco Rubio. „Die Verfassung erlaubt es der Regierung nicht, ihre enorme Macht zu missbrauchen, um ein Unternehmen für seine geschützte Meinungsäußerung zu bestrafen“, erklärten die Anwälte von Anthropic in der Klage. „Kein Bundesgesetz autorisiert die hier ergriffenen Maßnahmen. Anthropic wendet sich als letzten Ausweg an die Justiz, um seine Rechte durchzusetzen und die unrechtmäßige Vergeltungskampagne der Exekutive zu stoppen.“
Im Auftrag von @POTUS beendet @USTreasury alle Nutzung von Anthropic-Produkten, einschließlich der Nutzung der Claude-Plattform, innerhalb unseres Ministeriums.
Das amerikanische Volk verdient das Vertrauen, dass jedes Werkzeug der Regierung dem öffentlichen Interesse dient, und unter Präsident Trump… https://t.co/R7rF0ci5CY
— Schatzkanzler Scott Bessent (@SecScottBessent) 2. März 2026
Der Streit begann im Januar, als Pentagon-Beamte von KI-Auftragnehmern forderten, ihre Systeme für „jede rechtmäßige Verwendung“ zuzulassen, einschließlich militärischer Anwendungen. Obwohl Anthropic zu diesem Zeitpunkt bereits einen Vertrag über 200 Millionen Dollar mit dem Verteidigungsministerium abgeschlossen hatte, weigerte es sich, zwei Sicherheitsvorkehrungen aufzuheben, die die Nutzung von Claude für Massenüberwachung amerikanischer Bürger oder für vollständig autonome tödliche Waffensysteme verbieten. „Die angegriffenen Maßnahmen verursachen unmittelbaren und irreparablen Schaden für Anthropic; für andere, deren Meinungsfreiheit eingeschränkt wird; für diejenigen, die vom wirtschaftlichen Wert profitieren, den das Unternehmen weiterhin schaffen kann; und für eine globale Öffentlichkeit, die eine lebendige Diskussion darüber verdient, was KI für Krieg und Überwachung bedeutet“, erklärten die Anwälte von Anthropic in der Klage. Für KI-Entwickler, darunter SingularityNET-CEO Ben Goertzel, ist die Einstufung eine ungewöhnliche Wahl und passt nicht zum typischen Verständnis einer Lieferkettenbedrohung, die normalerweise für Software von Gegnern reserviert ist, die versteckte Malware, Viren oder Spionagesoftware enthalten könnte.
„Dass Anthropic nicht bereit ist, ihre Software für autonome Tötungen oder Massenüberwachung zu verwenden, scheint kein Risiko dieser Art darzustellen“, sagte Goertzel gegenüber Decrypt. „Das bedeutet nur, wenn man Software für autonome Tötungen oder Massenüberwachung verwenden möchte, sollte man die Software eines anderen kaufen. Die Logik, daraus eine Lieferkettengefahr zu machen, entzieht sich meiner Auffassung.“ Goertzel sagte, Unterschiede zwischen führenden KI-Modellen könnten die praktische Auswirkung der Entscheidung begrenzen. „Am Ende sind Claude, ChatGPT und Gemini nicht so weit voneinander entfernt“, sagte er. „Solange eines dieser Top-Systeme von der US-Regierung genutzt wird, dreht sich alles um dasselbe. Und die Geheimdienste würden unter dem Deckmantel der Top-Secret-Klassifizierung die Software nach Belieben verwenden.“ Anthropic bittet das Gericht, die Handlungen der Regierung für rechtswidrig zu erklären und die Durchsetzung der „Lieferkettenrisiko“-Einstufung zu stoppen, die Bundesbehörden und Pentagon-Auftragnehmer daran hindert, Geschäfte mit dem Unternehmen zu machen. „Es gibt keine gültige Rechtfertigung für die angegriffenen Maßnahmen“, heißt es in der Klage. „Das Gericht sollte sie für rechtswidrig erklären und die Beklagten daran hindern, Schritte zu ihrer Umsetzung zu unternehmen.“ Anthropic reagierte zunächst nicht auf Anfragen zu einer Stellungnahme von Decrypt. Selbst nach der Einstufung von Anthropic als Risiko für die nationale Sicherheit wurde Claude in laufenden Militäroperationen eingesetzt, unter anderem vom US Central Command, um bei der Analyse von Geheimdienstinformationen zu helfen und Ziele bei Angriffen auf den Iran zu identifizieren.
Jennifer Huddleston, Senior Fellow für Technologiepolitik am Cato Institute, erklärte in einer mit Decrypt geteilten Stellungnahme, dass der Fall Bedenken hinsichtlich verfassungsmäßiger Schutzrechte aufwirft, wenn nationale Sicherheitsbehauptungen zur Rechtfertigung staatlichen Handelns genutzt werden. „Während die Gerichte in der Vergangenheit zögerten, die Behauptungen der Regierung zu nationalen Sicherheitsbedenken in Frage zu stellen, heben die Umstände dieses Falls definitiv das echte Risiko für die First Amendment-Rechte der Amerikaner hervor, falls die zugrunde liegenden Überlegungen solcher Behauptungen nicht gründlich geprüft werden“, sagte sie.