


Erhalte unsere neuesten Artikel und Updates bequem per E-Mail
Das US-Verteidigungsministerium hat Anthropic – den Entwickler der KI Claude – offiziell als „Supply-Chain-Risiko“ eingestuft. Anthropic ist damit das erste amerikanische Unternehmen, das eine Sanktion erhält, die bisher ausländischen Gegnern wie Huawei vorbehalten war. Der Grund: Anthropic weigert sich, dem US-Militär uneingeschränkten Zugriff auf seine KI zu gewähren. Konkret zieht das Unternehmen zwei rote Linien – keinen Einsatz für massenhafte Inlandsüberwachung und keine vollautonomen Waffensysteme. Dieser Konflikt hat direkte Auswirkungen auf jedes Unternehmen, das Claude einsetzt oder mit US-Verteidigungsunternehmen zusammenarbeitet.
Anthropic hatte im Juli 2025 einen 200-Millionen-Dollar-Vertrag mit dem Pentagon unterzeichnet, um agentische KI-Workflows für das Militär zu entwickeln. Claude war bis vor Kurzem das einzige KI-Modell, das in den geheimen und abgeschirmten Netzen des Pentagon zugelassen war. In den folgenden Verhandlungen über die Ausweitung der Nutzung forderte Anthropic-CEO Dario Amodei zwei vertragliche Einschränkungen: keinen Einsatz von Claude für massenhafte Überwachung der US-Bevölkerung und keinen Einsatz in vollständig autonomen Waffensystemen, die ohne menschliche Kontrolle Ziele auswählen und angreifen.
Das Pentagon lehnte diese Einschränkungen als „übermäßig restriktiv“ ab und stellte Anthropic ein Ultimatum: Bis Freitag, den 28. Februar, sollte das Unternehmen dem Militär den uneingeschränkten Zugriff auf Claude für „alle legalen Einsatzzwecke“ gewähren. Andernfalls drohte das Pentagon mit zwei Maßnahmen – der Einstufung als Lieferkettenrisiko oder der Anwendung des Defense Production Act, eines Gesetzes, das normalerweise die Produktion kriegswichtiger Güter erzwingt.
Amodei wies das Ultimatum öffentlich zurück. In einem Blogbeitrag argumentierte er, dass heutige KI-Systeme nicht zuverlässig genug für vollautonome Waffen seien und massenhafte Überwachung demokratischen Werten widerspreche. Das Pentagon machte seine Drohung am 28. Februar wahr. Verteidigungsminister Pete Hegseth erklärte auf X, kein Auftragnehmer, Zulieferer oder Partner des US-Militärs dürfe mehr Geschäfte mit Anthropic machen. Am 5. März folgte die formelle Benachrichtigung.
Noch am selben Abend verkündete OpenAI-CEO Sam Altman, sein Unternehmen habe eine Vereinbarung mit dem Pentagon getroffen, um ChatGPT in dessen klassifiziertem Netzwerk einzusetzen. In einem geleakten Memo an die eigene Belegschaft bezeichnete Amodei OpenAIs Messaging als „glatte Lügen“ und „Safety Theater“.
Die Einstufung als Supply-Chain-Risiko ist kein bloßer Vertragsstreit. Sie setzt einen Präzedenzfall dafür, wie Regierungen mit KI-Unternehmen umgehen, die Grenzen für den Einsatz ihrer Technologie ziehen. Bisher war diese Sanktion Unternehmen aus feindlichen Staaten vorbehalten – etwa dem chinesischen Konzern Huawei. Rechtsexperten wie Amos Toh vom Brennan Center for Justice bezweifeln, dass die gesetzliche Grundlage für diese Anwendung überhaupt gegeben ist. 30 ehemalige Militär- und Geheimdienstfunktionäre forderten den Kongress in einem offenen Brief auf, den „gefährlichen Präzedenzfall“ zu untersuchen.
Gleichzeitig offenbart der Konflikt einen grundlegenden Widerspruch: Das Pentagon nutzt Claude weiterhin aktiv im Iran-Einsatz, weil das Modell so tief in die militärischen Systeme integriert ist, dass ein kurzfristiger Austausch praktisch unmöglich ist. Ein Pentagon-Beamter wird bei Axios mit den Worten zitiert, das Problem sei, „dass sie so gut sind“.
Die entscheidende Frage für Unternehmen lautet: Wie weit reicht die Sanktion? Hier gibt es widersprüchliche Signale. Hegseth erklärte, jedes Unternehmen mit Pentagon-Geschäft dürfe keinerlei Geschäftsbeziehung zu Anthropic mehr unterhalten. Anthropic und Microsoft argumentieren hingegen, dass die gesetzliche Grundlage die Einschränkung nur auf direkte Pentagon-Verträge beschränkt. Microsoft bestätigte am 5. März, dass Claude weiterhin in M365, GitHub und der AI Foundry für alle nichtmilitärischen Kunden verfügbar bleibt.
Für europäische Unternehmen und den deutschen Mittelstand ergibt sich daraus ein differenziertes Bild. Wer Claude ausschließlich für interne Arbeitsabläufe, Kundenservice oder Softwareentwicklung nutzt, ist nach aktuellem Stand nicht betroffen. Wer jedoch als Zulieferer oder Partner des US-Militärs agiert und gleichzeitig Anthropic-Technologie einsetzt, muss diese Konstellation juristisch prüfen. Die Unsicherheit selbst ist bereits ein Problem: Solange die endgültige Reichweite der Sanktion nicht gerichtlich geklärt ist, müssen betroffene Unternehmen mit einem Restrisiko rechnen.
Ein bemerkenswerter Nebeneffekt: Die Download-Zahlen von Claude sind seit dem Konflikt massiv gestiegen. Laut NPR registrierte Anthropic in der vergangenen Woche über eine Million neuer Nutzer pro Tag. In Apples App Store überholte Claude erstmals ChatGPT – auch in Deutschland, wie heise.de berichtet. Die öffentliche Positionierung gegen uneingeschränkten Militäreinsatz wirkt offenbar als Vertrauenssignal für Verbraucher und Unternehmen.
Anthropic hat angekündigt, die Einstufung gerichtlich anzufechten. CEO Amodei erklärte, man habe „keine andere Wahl“. Der Ausgang dieses Rechtsstreits wird maßgeblich bestimmen, ob die US-Regierung künftig KI-Unternehmen mit Sanktionen unter Druck setzen kann, die eigentlich für ausländische Gegner konzipiert wurden. Rechtsexperten sehen die Position des Pentagons kritisch: Das Gesetz verlangt einen Nachweis, dass ein Gegner die Lieferkette sabotieren oder unterwandern könnte – ein Szenario, das auf Anthropics Nutzungseinschränkungen schwer anwendbar ist.
Kurzfristig müssen auch die Reaktionen der großen Cloud-Anbieter beobachtet werden. Amazon, Google und Nvidia – allesamt Großinvestoren bei Anthropic – haben sich bisher nicht zu möglichen Konsequenzen geäußert. Sollte die maximalistische Interpretation Hegseths Bestand haben, müssten diese Unternehmen theoretisch ihre Milliarden-Investitionen in Anthropic überdenken. Das erscheint zum jetzigen Zeitpunkt unwahrscheinlich, bleibt aber ein Risikofaktor.
Für die KI-Branche insgesamt stellt sich eine grundlegende Frage: Können Technologieunternehmen überhaupt noch rote Linien für den Einsatz ihrer Produkte ziehen, ohne wirtschaftliche Vergeltung zu riskieren? Die Antwort darauf wird nicht nur in Washington entschieden, sondern auch davon abhängen, wie Kunden und Investoren reagieren. Die ersten Signale – steigende Nutzerzahlen und die klare Unterstützung durch Microsoft – deuten darauf hin, dass Anthropics Haltung wirtschaftlich nicht bestraft wird. Ob das langfristig so bleibt, hängt vom Ausgang der juristischen Auseinandersetzung ab.
Prüfen Sie, ob Ihr Unternehmen oder Ihre Zulieferer direkte Geschäftsbeziehungen zum US-Verteidigungsministerium unterhalten. Falls ja: Lassen Sie die Auswirkungen der Supply-Chain-Risiko-Einstufung juristisch bewerten, bevor Sie Anthropic-Technologie in betroffenen Geschäftsbereichen einsetzen. Falls nein: Es besteht nach aktuellem Stand kein Handlungsbedarf, aber setzen Sie den Rechtsstreit auf Ihre Beobachtungsliste. Der Ausgang wird die Spielregeln zwischen Regierungen und KI-Anbietern für die kommenden Jahre definieren.
Sed at tellus, pharetra lacus, aenean risus non nisl ultricies commodo diam aliquet arcu enim eu leo porttitor habitasse adipiscing porttitor varius ultricies facilisis viverra lacus neque.


