Der Konflikt zwischen [Anthropic](/de/unternehmen/anthropic) und der US-Regierung hat einen Wendepunkt erreicht. Am 27. Februar 2026 ordnete Präsident Donald Trump alle Bundesbehörden an, die Nutzung von Anthropic-Technologien sofort einzustellen — das Unternehmen hinter Claude. Der Grund: Anthropic weigerte sich, die Sicherheitsbeschränkungen für den militärischen Einsatz seiner KI aufzuheben.
Chronologie des Konflikts zwischen Anthropic und dem Pentagon
Der ursprüngliche 200-Millionen-Dollar-Vertrag
Im Sommer 2025 unterzeichnete Anthropic einen auf 200 Millionen Dollar geschätzten Vertrag mit dem US-Verteidigungsministerium. Claude wurde in mehreren Bundesbehörden, einschließlich des Pentagons, für Analyse-, Synthese- und Entscheidungsunterstützungsaufgaben eingesetzt. Der Vertrag enthielt Nutzungsbeschränkungen, die Anthropic gemäß seiner Responsible Scaling Policy auferlegte — einem ethischen Rahmenwerk, das sensible Anwendungen seiner KI reguliert.
Das Ultimatum des Pentagons (26. Februar 2026)
Am 26. Februar 2026 stellte das Pentagon Anthropic ein Ultimatum: alle Beschränkungen für den militärischen Einsatz von Claude bis 17:01 Uhr des folgenden Tages aufheben oder den Vertrag verlieren. Konkret forderte das Verteidigungsministerium, dass Anthropic den Einsatz von Claude für die inländische Massenüberwachung amerikanischer Bürger und für vollautonome Waffensysteme genehmigt — also Waffen, die ohne menschliche Aufsicht Ziele auswählen und bekämpfen können.
Ein bemerkenswertes Detail: Das Pentagon behauptete, diese spezifischen Anwendungen nie in Betracht gezogen zu haben, weigerte sich aber kategorisch, sie vertraglich auszuschließen.
Anthropics Antwort: Cannot in good conscience
Noch am selben Tag wies Anthropic das Ultimatum öffentlich zurück. CEO Dario Amodei gab eine unmissverständliche Erklärung ab:
“Threats do not change our position: we cannot in good conscience accede to their request.”
Anthropic stellte klar, dass seine roten Linien nicht verhandelbar sind: keine inländische Massenüberwachung, keine autonomen Waffen ohne menschliche Kontrolle. Das Unternehmen erklärte sich bereit, mit der Regierung an verantwortungsvollen KI-Anwendungen zu arbeiten, aber nicht um den Preis seiner Sicherheitsprinzipien.
Trumps Exekutivanordnung (27. Februar 2026)
Am 27. Februar 2026 wies Donald Trump alle Bundesbehörden an, sofort jegliche Nutzung von Anthropic-Technologien einzustellen. Auf Truth Social schrieb der Präsident:
“We don't need it, we don't want it, and will not do business with them again!”
Kurz darauf bezeichnete Verteidigungsminister Pete Hegseth Anthropic offiziell als Supply Chain Risk (Lieferkettenrisiko) — eine Einstufung, die normalerweise Unternehmen vorbehalten ist, die als Verlängerung ausländischer Gegner gelten, etwa bestimmte chinesische Zulieferer. Es ist das erste Mal, dass ein amerikanisches KI-Unternehmen diese Bezeichnung erhält.
Die Regierungsbehörden haben 6 Monate Zeit, sich vollständig von Anthropic-Produkten zu lösen.
Anthropic geht vor Gericht (28. Februar 2026)
Am 28. Februar kündigte Anthropic an, die Entscheidung gerichtlich anzufechten. Das Unternehmen hält die Bezeichnung als Supply Chain Risk für missbräuchlich und unverhältnismäßig und argumentiert, dass die Entscheidung des Pentagons eine Vergeltungsmaßnahme gegen die rechtmäßige Ausübung seiner vertraglichen Rechte darstellt.
Warum Anthropic sich weigerte: Die roten Linien der KI
Inländische Massenüberwachung
Anthropic lehnt es ab, dass Claude zur massenhaften Überwachung amerikanischer Bürger im Inland eingesetzt wird. Diese Art der Anwendung wirft grundlegende Fragen zu Bürgerrechten und dem Vierten Verfassungszusatz auf, der vor unangemessenen Durchsuchungen und Beschlagnahmen schützt.
Autonome Waffen ohne menschliche Aufsicht
Die zweite rote Linie betrifft tödliche autonome Waffen — Systeme, die Ziele ohne menschliches Eingreifen auswählen und bekämpfen können. Dies ist Gegenstand einer weltweiten Debatte: Zahlreiche KI-Experten und internationale Organisationen plädieren für die Beibehaltung menschlicher Kontrolle in der Entscheidungskette über tödliche Gewalt (das Human-in-the-Loop-Prinzip).
Anthropics Responsible Scaling Policy
Seit seiner Gründung positioniert sich Anthropic als sicherheitsorientiertes KI-Unternehmen. Seine Responsible Scaling Policy definiert Risikostufen (ASL) für seine Modelle und legt proportionale Nutzungsbeschränkungen fest. Diese Politik ist zentral für Anthropics Identität und ein wichtiges Unterscheidungsmerkmal gegenüber Wettbewerbern: Claude wird als die sicherste und am besten ausgerichtete KI auf dem Markt vermarktet.
Folgen für die KI-Branche
OpenAI unterzeichnet Vertrag mit dem Pentagon
Zufall oder Opportunismus: OpenAI — das Unternehmen hinter ChatGPT — kündigte nur wenige Stunden nach dem Anthropic-Verbot einen neuen Vertrag mit dem Pentagon an. Das Timing unterstreicht den harten Wettbewerb zwischen KI-Unternehmen um Regierungsaufträge — und die unterschiedlichen ethischen Entscheidungen, die sie treffen.
Supply Chain Risk: Eine beispiellose Einstufung
Die Einstufung von Anthropic als Supply Chain Risk ist für ein amerikanisches Technologieunternehmen beispiellos. Diese Kategorie, die zur Abwehr von Bedrohungen durch ausländische Gegner (China, Russland) geschaffen wurde, wird hier gegen ein in San Francisco ansässiges Unternehmen eingesetzt. Rechtsexperten und Verteidigungsanalysten äußerten umgehend Bedenken hinsichtlich der Rechtmäßigkeit und Verhältnismäßigkeit dieser Maßnahme.
6 Monate Übergangsfrist für Bundesbehörden
Die Regierungsbehörden haben bis Ende August 2026 Zeit, auf alternative Lösungen umzusteigen. Das stellt eine erhebliche logistische Herausforderung dar: Claude war in zahlreiche Arbeitsabläufe der Verwaltung integriert. Wahrscheinliche Alternativen sind die Modelle von OpenAI (GPT-4), Googles Gemini und xAIs Grok (im Besitz von Elon Musk).
Was das für Claude-Nutzer bedeutet
Auswirkungen auf den Claude-Service für Endverbraucher
Für Privatpersonen und Unternehmen ändert sich nichts. Das Verbot betrifft ausschließlich US-Bundesbehörden und Regierungsauftragnehmer. Claude bleibt für Privatpersonen, Unternehmen und Entwickler über claude.ai, die API und Claude Code vollständig verfügbar.
Claude vs ChatGPT: Unterschiedliche ethische Positionierung
Dieser Fall verdeutlicht den Positionierungsunterschied zwischen Claude und ChatGPT. Anthropic entscheidet sich dafür, seine Sicherheitsprinzipien beizubehalten — selbst auf Kosten eines 200-Millionen-Dollar-Vertrags und einer direkten Konfrontation mit der Exekutive. OpenAI hingegen nutzt die Geschäftsmöglichkeit. Für Nutzer, die Wert auf Ethik und Sicherheit ihrer KI-Tools legen, ist diese Positionierung ein bedeutendes Entscheidungskriterium.
Anthropics Zukunft nach dem Verbot
Trotz des Verlusts des Regierungsvertrags bleibt Anthropic gut aufgestellt. Das Unternehmen hat über 7 Milliarden Dollar eingeworben, bedient Millionen von Nutzern weltweit, und seine Claude-Modelle gelten als eine der leistungsfähigsten auf dem Markt. Die Klage gegen das Pentagon könnte einen wichtigen rechtlichen Präzedenzfall für die Rechte von KI-Unternehmen gegenüber staatlichen Forderungen schaffen.
Langfristig könnte dieser Fall die Marke Anthropic bei sicherheits- und ethikbewussten Nutzern sogar stärken — insbesondere in Europa, wo die Vorschriften für militärische KI strenger sind.
Häufig gestellte Fragen
Dieser Artikel wird aktualisiert, sobald sich die Situation weiterentwickelt. Letzte Aktualisierung: 28. Februar 2026.
Bleiben Sie über KI-Neuigkeiten informiert
Erhalten Sie die neuesten Analysen und Vergleiche direkt in Ihren Posteingang.
Kein Spam. Abmeldung mit 1 Klick.


