Anthropic, ein führendes KI-Startup mit einem Wert von 380 Milliarden US-Dollar, befindet sich in einer angespannten Auseinandersetzung mit dem US-Verteidigungsministerium (Pentagon) über die uneingeschränkte Nutzung seiner Technologie. Der Kernstreit dreht sich um eine einfache, aber kritische Klausel: ob das Militär die KI von Anthropic für „jede rechtmäßige Nutzung“ einsetzen darf. Dies würde dem Pentagon weitreichende Befugnisse einräumen, die KI für Überwachung, tödliche autonome Waffensysteme und andere Anwendungen zu nutzen, die derzeit durch die internen Richtlinien des Unternehmens eingeschränkt sind.
Die Verhandlungen eskalierten zu öffentlichen Drucktaktiken, wobei Beamte des Pentagon Berichten zufolge damit drohten, Anthropic als „Lieferkettenrisiko“ einzustufen – eine Bezeichnung, die normalerweise nationalen Sicherheitsbedrohungen vorbehalten ist. Dieser vom Pentagon-CTO Emil Michael vorangetriebene Schritt würde Anthropic effektiv von wichtigen Verteidigungsaufträgen abschneiden und Unternehmen wie AWS, Palantir und Anduril dazu zwingen, ihre Beziehungen abzubrechen. Die Situation ist beispiellos, da das Pentagon amerikanische Unternehmen selten öffentlich bedroht, geschweige denn wegen politischer Meinungsverschiedenheiten.
Warum das wichtig ist
Die Forderung des Pentagons nach „jeder rechtmäßigen Nutzung“ spiegelt die wachsende Dringlichkeit wider, KI ohne Einschränkungen in militärische Operationen zu integrieren. Dies wirft grundlegende Fragen zur Rechenschaftspflicht, zu ethischen Grenzen und zum Potenzial autonomer Waffensysteme auf, die ohne menschliche Aufsicht funktionieren. Der Streit verdeutlicht die Spannung zwischen schnellem technologischen Fortschritt und der Notwendigkeit einer verantwortungsvollen KI-Governance.
Die wichtigsten Forderungen
Anthropic hat zwei klare Grenzen gezogen: Es wird nicht zulassen, dass seine KI für völlig autonome tödliche Operationen oder Massenüberwachung im Inland eingesetzt wird. Das Unternehmen argumentiert, dass die geltenden Gesetze den Fähigkeiten der KI nicht gerecht werden und möglicherweise die bürgerlichen Freiheiten verletzen. Darüber hinaus ist Anthropic der Ansicht, dass die Technologie für wirklich autonome Waffen ohne menschliches Eingreifen noch nicht zuverlässig genug für den Einsatz ist.
Das Pentagon ist jedoch entschlossen, jegliche Beschränkungen aufzuheben. In einem kürzlich veröffentlichten Memo von Minister Pete Hegseth wird gefordert, dass bei allen KI-Beschaffungsverträgen die Geschwindigkeit Vorrang vor der Sicherheit haben soll, auch wenn dies bedeutet, dass eine „unvollkommene Abstimmung“ akzeptiert wird. Das Memo fordert ausdrücklich die Integration von KI in die „Kill Chain Execution“ und die Priorisierung von Modellen ohne Nutzungsbeschränkungen. OpenAI, xAI und Google haben ihre Verträge bereits neu ausgehandelt, um diese Bedingungen einzuhalten, aber keines ihrer Modelle verfügt derzeit über die höchste Sicherheitsfreigabe, die für geheime Pentagon-Operationen erforderlich ist.
Claudes einzigartige Position
Das Claude-Modell von Anthropic ist die einzige Grenz-KI, die derzeit für den Betrieb in vollständig klassifizierten Pentagon-Netzwerken zugelassen ist und über Palantir und Amazons Top Secret Cloud bereitgestellt wird. Dies macht es in bestimmten Arbeitsabläufen unersetzlich und verschafft Anthropic einen Einfluss auf die Verhandlungen. Der Versuch des Pentagons, Anthropic auf die schwarze Liste zu setzen, würde eine Schwachstelle bei einem einzigen Anbieter schaffen und möglicherweise kritische Militäreinsätze behindern.
Die umfassenderen Implikationen
Die Pattsituation geht über Anthropic hinaus. Andere KI-Labore stehen unter ähnlichem Druck, eine uneingeschränkte militärische Nutzung zu akzeptieren, aber nur wenige haben sich öffentlich dagegen gewehrt. Einige Branchenbeobachter argumentieren, dass diese Unternehmen ihre Bewertungen auch ohne Militärverträge rechtfertigen könnten, während andere glauben, dass Anthropic irgendwann nachgeben wird. Das Ergebnis wird einen Präzedenzfall dafür schaffen, wie KI-Technologie in Kriegsführung und Überwachung integriert wird und die Zukunft militärischer Operationen und ethischer Überlegungen prägt.
Die Benennung würde erfordern, dass jeder Verteidigungsunternehmer, der Regierungsaufträge anstrebt, bescheinigen muss, dass er sämtliche Anthropic-Technologie aus seinen Systemen entfernt hat.
Der Streit breitet sich in der Öffentlichkeit aus und wirft Fragen nach Transparenz und Unternehmensverantwortung im Zeitalter der künstlichen Intelligenz auf. Die aggressiven Taktiken des Pentagons und die feste Haltung von Anthropic unterstreichen, wie hoch der Einsatz bei der Kontrolle der Zukunft der KI ist.
