Verbot noch nicht bestätigt US-Verteidigungsministerium stuft Claude als nationales Risiko ein

Von Melanie Staudacher 3 min Lesedauer

Anbieter zum Thema

Das Pentagon stufte Anthropics Technologie als Risiko für die Lieferketten ein und verbot ihre Nutzung in DoD‑Aufträgen. Da Gerichtliche Ent­schei­dun­gen widersprüchlich waren, steht die rechtliche Klärung noch aus. Anthropic hat dazu Stellung genommen und erklärt die Folgen.

Die Diskussionen über die Sicherheit von Claude und weiterer Anthropic-Technologie reißen nicht ab. Stattdessen haben sie sich von der Öffentlichkeit in den Gerichtssaal verlagert. Das US-Verteidigungsministerium möchte die Technologien des Herstellers auf eine Blacklist setzen lassen, damit sie in entsprechenden Aufträgen nicht mehr verwendet wird – auch nicht von Partnern.(Bild:  Dall-E / Vogel IT-Medien GmbH / KI-generiert)
Die Diskussionen über die Sicherheit von Claude und weiterer Anthropic-Technologie reißen nicht ab. Stattdessen haben sie sich von der Öffentlichkeit in den Gerichtssaal verlagert. Das US-Verteidigungsministerium möchte die Technologien des Herstellers auf eine Blacklist setzen lassen, damit sie in entsprechenden Aufträgen nicht mehr verwendet wird – auch nicht von Partnern.
(Bild: Dall-E / Vogel IT-Medien GmbH / KI-generiert)

Das US-Verteidigungsministerium (Department of Defense, DoD) stufte Bloomberg nach den US-Hersteller Anthropic, der für sein KI-Sprachmodell Claude bekannt ist, offiziell als „supply chain risk“ ein und verbot damit die Nutzung des KI‑Modells Claude in DOD‑Aufträgen. Da­rauf­hin klagte Anthropic gegen diese Einstufung. Doch zwischen Gerichten gab es widersprüchliche Entscheidungen: Ein Bundesberufungsgericht in Washing­ton lehnte den Antrag von Anthropic ab, die Blacklist auf der das Unternehmen stand vorläufig auszusetzen und gleichzeitig erließ ein Bundesrichter in San Francisco in einem separaten Fall eine vorläufige Verfügung, die der Trump‑Administration untersagt, ein generelles Verbot der Nutzung von Claude durchzu­set­zen. So bleibt Anthropic von DOD‑Verträgen vorerst ausgeschlossen, kann aber weiter mit an­deren Behörden arbeiten.

Wieso gilt Anthropic als Risiko?

Das DOD begründete seine Einstufung damit, dass die Nutzung von Anthropic‑Technologie eine Gefahr für die nationale Sicherheit darstelle. Die Behörde sah bei Claude ein potenzielles Risiko für die Verteidigungslieferkette, insbesondere im Kontext laufender militärischer Operationen. Erstmals wurde damit ein US-Unternehmen von einer US-Behörde designiert.

Dieser Designation vorausgegangen waren Aufforderungen des Pentagons an An­thro­pic, des­sen Forderungen bezüglich der Nutzung seiner Technologie nachzukommen. Nachdem An­thr­opic sich weigerte, hatte zuerst US-Präsident Donald Trump auf seiner Plattform „Truth Social“ verkündet, dass Bundesbehörden innerhalb von sechs Monaten die Nutzung von Anthropic­Tech­no­logie einstellen müssen. Kurz danach kündigte Verteidigungsminister Pete Hegseth öffentlich an, er wolle anordnen, Anthropic als nationales Risiko für die Lieferketten zu desig­nier­en. Diese Ankündigungen gingen der formellen DOD‑Einstufung voraus und setzten den Prozess Ende Februar/Anfang März 2026 faktisch in Gang.

Anthropics Reaktion und Folgen

Am 27. Februar hat Hersteller Anthropic ein Statement zu den Äußerungen von Hegseth veröffentlicht.

Das Verteidigungsministerium hatte verlangt, die Anthropic-Technologie für alle rechtmäßigen Zwecke nutzen zu dürfen, also eine pauschale Erlaubnis für die Zwecke des DoD. Anthropic hatte zwei Ausnahmen von dieser uneingeschränkten Nutzungsbefugnis seiner Technologie beantragt. Diese sind:

  • Keine Nutzung für massenhafte inländische Überwachung von US‑Bürgern
  • Keine Nutzung in vollständig autonomen Waffen

Dieser Antrag wurde abgelehnt und der Hersteller auf die DoD-Blacklist gesetzt. Allerdings gilt dies bisher nur als vorläufig, rechtlich ist die Einstufung noch nicht endgültig bestätigt. Da zwei Gerichte dazu unterschiedlich entschieden haben, ist das Verfahren weiterhin offen.

Anthropic dazu: „Wir sind der Ansicht, dass diese Einstufung sowohl rechtlich unhaltbar wäre als auch einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen schaffen wür­de, das mit der Regierung verhandelt. Wir haben uns nach bestem Wissen und Gewissen um eine Einigung mit dem Kriegsministerium bemüht und dabei klargestellt, dass wir alle recht­mä­ßigen Anwendungen von KI für die nationale Sicherheit unterstützen, mit Ausnahme der beiden oben genannten Ausnahmen. Unseres Wissens haben diese Ausnahmen bisher keine einzige Regierungsmission beeinträchtigt. Wir haben aus zwei Gründen an unseren Ausnah­men festgehalten. Erstens sind wir der Ansicht, dass die heutigen KI-Modelle der Spitzenklasse nicht zuverlässig genug sind, um in vollautonomen Waffensystemen eingesetzt zu werden. Die Zulassung der Verwendung aktueller Modelle in dieser Weise würde die amerikanischen Sol­daten und die Zivilbevölkerung gefährden. Zweitens sind wir der Ansicht, dass die mas­sen­hafte Überwachung von Amerikanern im Inland eine Verletzung ihrer Grundrechte darstellt.“

Was bedeutet das für Kunden von Anthropic?

Anthropic klärt darüber auf, was diese Entwicklungen für seine Kunden bedeuten: Privatkunden sowie nicht-staatliche Unternehmenskunden behalten den Zugriff auf Claude über die API, claude.ai oder andere Produkte. Für Auftragnehmer des US-Verteidigungsministeriums, würde die Einstufung – sofern sie formell übernommen wird – nur die Nutzung von Claude im Rah­men von Verträgen mit dem US-Verteidigungsministerium betreffen. Die Nutzung für alle anderen Zwecke würde unberührt bleiben.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

(ID:50811725)