Berichten zufolge nutzt die National Security Agency (NSA) Mythos Preview, ein hochspezialisiertes KI-Modell von Anthropic, das der breiten Öffentlichkeit vorenthalten wurde. Diese Entwicklung verdeutlicht einen auffälligen Widerspruch in der US-Verteidigungspolitik: Während das Pentagon Anthropic offiziell als potenzielles „Lieferkettenrisiko“ gekennzeichnet hat, integrieren Geheimdienste aktiv die fortschrittlichsten Tools des Unternehmens in ihre Operationen.
Das Mythos-Paradoxon: Macht vs. Sicherheit
Anfang dieses Monats stellte Anthropic Mythos vor, ein Grenzmodell, das speziell für anspruchsvolle Cybersicherheitsaufgaben entwickelt wurde. Allerdings traf das Unternehmen die seltene und bedeutsame Entscheidung, das Modell von der Veröffentlichung fernzuhalten.
Der Grund für diese Einschränkung liegt in der schieren Wirksamkeit des Modells. Anthropic gab an, dass Mythos so gut darin sei, Cyberangriffe zu identifizieren und auszuführen, dass die Bereitstellung für die Öffentlichkeit eine massive Sicherheitsbedrohung darstellen könnte. Stattdessen wurde der Zugang streng auf etwa 40 ausgewählte Organisationen beschränkt.
Berichten von Axios zufolge gehört auch die NSA zu diesen nicht genannten Nutzern. Ihre Hauptanwendung für das Modell umfasst:
– Digitale Umgebungen nach Schwachstellen durchsuchen.
– Identifizierung ausnutzbarer Schwachstellen in komplexen Netzwerken.
Das britische AI Security Institute hat ebenfalls bestätigt, dass es zu den wenigen Unternehmen gehört, denen Zugriff auf das Modell gewährt wurde.
Eine wachsende Spannung zwischen Verteidigung und Technologie
Die Einführung von Mythos durch die NSA erfolgt vor dem Hintergrund intensiver Spannungen zwischen dem Verteidigungsministerium (DoD) und Anthropic. Das Pentagon hat das KI-Unternehmen kürzlich als „Lieferkettenrisiko“ bezeichnet, ein Schritt, der auf eine grundsätzliche Meinungsverschiedenheit über die ethischen und operativen Grenzen der KI zurückzuführen ist.
Der Streit erreichte einen Siedepunkt, als Anthropic sich weigerte, Pentagon-Beamten uneingeschränkten Zugang zu seinen Modellen zu gewähren, und insbesondere die Nutzung seiner Claude -KI für Folgendes ablehnte:
1. Massenüberwachung im Inland.
2. Die Entwicklung autonomer Waffensysteme.
Dadurch entsteht ein komplexes Umfeld für die nationale Sicherheit: Das Militär argumentiert gleichzeitig vor Gericht, dass diese KI-Instrumente eine Bedrohung für die nationale Sicherheit darstellen, während Geheimdienste sich darauf verlassen, dass sie die Cyberabwehr stärken.
Wechselnde politische Winde
Trotz der formellen Streitigkeiten mit dem Pentagon scheint sich das Verhältnis von Anthropic zur breiteren US-Regierung zu verändern. Jüngste hochrangige Treffen deuten auf ein „Auftauen“ der Beziehungen zwischen dem KI-Unternehmen und dem Weißen Haus hin.
Dario Amodei, CEO von Anthropic, traf sich kürzlich mit wichtigen Regierungsvertretern, darunter der Stabschefin des Weißen Hauses, Susie Wiles, und Finanzminister Scott Bessent. Das Weiße Haus bezeichnete diese Diskussionen als „produktiv“ und signalisierte einen möglichen Schwenk hin zu einer stärker kooperativen Beziehung zwischen der Regierung und führenden KI-Entwicklern.
Die Spannung zwischen den Sicherheitsbedenken des Pentagons und den operativen Anforderungen der NSA unterstreicht eine kritische Debatte: Wie kann die immense Macht der Grenz-KI für die Verteidigung genutzt werden, ohne neue, unkontrollierbare Schwachstellen zu schaffen?
Schlussfolgerung
Die Verwendung des eingeschränkten Mythos-Modells von Anthropic durch die NSA offenbart eine Kluft in der Sichtweise der US-Regierung auf KI – sie sieht sie in einem Kontext als hochriskante Belastung und in einem anderen als wesentliches strategisches Gut. Diese Dualität unterstreicht den anhaltenden Kampf um die Regulierung leistungsstarker Technologien, die für die Öffentlichkeit zu mächtig, aber zu wichtig sind, als dass die nationale Sicherheit sie ignorieren könnte.
