Stunden nach einem unterschriebenen Verbot durch Präsident Donald Trump setzte das US-Militär offenbar künstliche Intelligenz von Anthropic bei einem Luftangriff auf den Iran ein. Dies wirft Fragen bezüglich der Umsetzung von Sicherheitsanordnungen im Verteidigungsbereich auf.
Am 27. Februar 2026 erließ Präsident Donald Trump eine Anordnung, die die Nutzung von Anthropic-Technologie durch Bundesbehörden umgehend stoppen sollte. Trump bezeichnete das Unternehmen als „linksradikale Spinner“ und „woke“, da deren Handlungen „amerikanische Leben“, „unsere Truppen“ und „unsere Nationale Sicherheit“ gefährden würden. Zusätzlich wurde das Pentagon angewiesen, Anthropic als „Lieferkettenrisiko“ einzustufen und eine sechswöchige Auslaufphase zu initiieren.
Der Kern des Konflikts lag in Anthropic’s Weigerung, bestimmte „Schutzmechanismen“ für die militärische Anwendung ihrer KI zu lockern. Das Unternehmen verlangte Zusicherungen, dass die KI nicht für Massenüberwachung amerikanischer Bürger oder für vollautonome Waffensysteme eingesetzt wird. Demgegenüber forderte der damalige Verteidigungsminister uneingeschränkten Zugang für „alle rechtmäßigen Zwecke“.
Trotz Trumps Anordnung nutzten US-Militärkommandos offenbar Anthropic’s Claude AI bei einem Luftangriff auf den Iran, Stunden nach dem öffentlichen Stoppbefehl.
Berichten zufolge kam die Claude-KI des Unternehmens beim Luftangriff auf den Iran durch US-Militärkommandos, darunter CENTCOM, zum Einsatz. Die KI wurde für Geheimdienstbewertungen, Zielidentifikation und die Simulation von Kampfszenarien verwendet. Zuvor war Anthropic’s KI bereits bei der Operation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro durch das Pentagon eingesetzt worden.
Anthropic gab an, dem US-Verteidigungsministerium die Nutzung seiner Technologie unter zwei Bedingungen gestattet zu haben: keine Massenüberwachung von Amerikanern und keine vollautonomen Waffen. Das Unternehmen nannte die Einstufung als „Lieferkettenrisiko“ eine „beispiellose Maßnahme“ und plant, diese rechtlich anzufechten. Kurz nach dem Anthropic-Verbot kündigte OpenAI einen Vertrag zur Implementierung seiner KI-Tools in klassifizierten Pentagon-Systemen an, wobei ähnliche Sicherheitsprinzipien betont wurden.




