Ein Bundesrichter hat die Trump-Administration vorübergehend daran gehindert, das Unternehmen für künstliche Intelligenz Anthropic als nationale Sicherheitsbedrohung einzustufen, und hat sich in einem frühen Stadium seiner rechtlichen Anfechtung auf die Seite des Unternehmens gestellt. Das Urteil stoppt den Versuch der Regierung, das Claude-KI-Modell von Anthropic einzuschränken, nachdem das Unternehmen seine uneingeschränkte Nutzung durch das Militär abgelehnt hatte.
Der Streit: KI-Beschränkungen und Bedenken hinsichtlich des ersten Verfassungszusatzes
Der Konflikt begann, als Präsident Trump und Verteidigungsminister Pete Hegseth ankündigten, dass die Regierung die Zusammenarbeit mit Anthropic einstellen werde, weil diese sich weigerte, dem Militär uneingeschränkten Zugang zu seiner KI zu gewähren, einschließlich potenzieller Anwendungen in tödlichen autonomen Waffensystemen und Massenüberwachung. Als Reaktion darauf bezeichnete die Regierung Anthropic als „Lieferkettenrisiko“ und verbot Bundesbehörden effektiv die Nutzung der Technologie.
Richterin Rita F. Lin vom Northern District of California beschrieb das Vorgehen der Regierung als „einen Versuch, Anthropic zu lähmen“ und „die öffentliche Debatte abzukühlen“. Sie argumentierte, dass die Strafmaßnahmen willkürlich erschienen und Hegseths Nutzung einer Autorität, die normalerweise ausländischen Gegnern vorbehalten sei, ungerechtfertigt sei. Lin schrieb, dass der Versuch der Regierung, ein amerikanisches Unternehmen als Bedrohung zu brandmarken, weil es mit seiner Politik nicht einverstanden sei, eine „orwellsche“ Übertreibung sei.
Rechtsgrundlage: Vergeltungsmaßnahme des Ersten Verfassungszusatzes
Anthropic reichte im März zwei Klagen ein, in denen sie die Bezeichnung der Lieferkette anfochten und Verstöße gegen den Ersten Verfassungszusatz geltend machten. Die einstweilige Verfügung des Richters bedeutet, dass die Technologie von Anthropic der Regierung und ihren Auftragnehmern weiterhin zur Verfügung steht, während die Klagen anhängig sind. Das Unternehmen argumentiert, die Maßnahmen der Regierung seien Vergeltungsmaßnahmen gewesen, nachdem sie Bedenken hinsichtlich des militärischen Einsatzes ihrer KI geäußert hatte, insbesondere im Hinblick auf tödliche autonome Waffen und Überwachung.
Warum das wichtig ist
Dieser Fall verdeutlicht die wachsende Spannung zwischen den Forderungen der Regierung nach Zugang zu fortschrittlichen KI-Technologien und den Rechten privater Unternehmen, die Verwendung ihrer Produkte zu kontrollieren. Die aggressive Haltung der Trump-Regierung spiegelt einen breiteren Trend nationaler Sicherheitsbedenken wider, die die Technologiepolitik prägen. Das Urteil unterstreicht jedoch, dass solche Maßnahmen auf gesetzlicher Autorität beruhen und verfassungsmäßige Rechte respektieren müssen.
Anthropic veröffentlichte eine Erklärung, in der es seine Dankbarkeit für die Entscheidung des Gerichts zum Ausdruck brachte und sein Engagement für eine konstruktive Zusammenarbeit mit der Regierung bekräftigte, um eine verantwortungsvolle KI-Entwicklung sicherzustellen.
Der Fall ist noch nicht abgeschlossen, aber die einstweilige Verfügung stellt sicher, dass Anthropic seine Geschäftstätigkeit fortsetzen kann, während sich der Rechtsstreit entfaltet.
