Anthropic sagt Nein zu Waffen. Die US-Regierung will das nicht hinnehmen.

Das US-Justizministerium hat am 2. April Berufung gegen eine Gerichtsentscheidung eingelegt, die Trumps Verbot von Anthropics KI-Technologie in allen Bundesbehörden blockiert. Damit eskaliert ein Konflikt, der weit über einen Regierungsauftrag hinausgeht. Es geht um die Frage, ob ein KI-Unternehmen bestraft werden darf, weil es ethische Grenzen setzt.

Der Hintergrund: Anthropic hatte im Sommer 2025 einen 200-Millionen-Dollar-Vertrag mit dem Pentagon unterschrieben. Als das Verteidigungsministerium im Herbst uneingeschränkten Zugang zu Claude für autonome Waffensysteme und Massenüberwachung forderte, weigerte sich das Unternehmen. CEO Dario Amodei erklärte, diese Anwendungen überschritten die Grenzen dessen, was die Technologie sicher leisten könne. Daraufhin erklärte Präsident Trump im Februar 2026, Anthropic habe einen »katastrophalen Fehler« begangen. Verteidigungsminister Hegseth stufte das Unternehmen als Risiko für die nationale Lieferkette ein. Trump ordnete an, sämtliche Bundesbehörden sollten die Nutzung von Anthropics Produkten einstellen.

Bundesrichterin Rita Lin sah das anders. In einem 43-seitigen Urteil vom 26. März blockierte sie das Verbot und nannte es »klassische Vergeltung gegen die Meinungsfreiheit«. Sie wies den »orwellschen Gedanken« zurück, dass ein amerikanisches Unternehmen zum Staatsfeind erklärt werden dürfe, weil es der Regierung widerspricht. Die Einstufung als Lieferkettenrisiko habe keine gesetzliche Grundlage, so Lin. Das Gesetz erlaube diesen Schritt nur gegen Unternehmen, die von »Gegnern« für »Sabotage« genutzt würden. Eine Meinungsverschiedenheit über Vertragsbedingungen falle nicht darunter.

Die Folgen des Streits gehen über den Gerichtssaal hinaus. Nach Trumps Verbot und OpenAIs schnellem Einspringen mit einem eigenen Pentagon-Deal entstand die QuitGPT-Bewegung: Über 2,5 Millionen Nutzer kündigten ihre ChatGPT-Abonnements oder kündigten das öffentlich an. Claude stieg an die Spitze der App-Store-Charts und überholte ChatGPT bei den täglichen Downloads. Auf dem Sekundärmarkt wurden OpenAI-Anteile laut Bloomberg fast unverkäuflich, während Investoren zu Anthropic wechselten. Der ethische Standpunkt wurde zum Geschäftsvorteil.

Mit der Berufung des Justizministeriums geht der Fall nun an ein Bundesberufungsgericht. Was dort entschieden wird, betrifft nicht nur Anthropic. Es legt fest, ob die US-Regierung künftig jedes Technologieunternehmen wirtschaftlich bestrafen kann, das bei KI-Einsätzen rote Linien zieht. Für alle, die KI nutzen, stellt sich die Frage: Wer bestimmt eigentlich, wofür diese Technologie eingesetzt werden darf?

Quellen

Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung.

Bist du bereit für mehr?