Według doniesień Agencja Bezpieczeństwa Narodowego (NSA) korzysta z Mythos Preview, wysoce wyspecjalizowanego modelu sztucznej inteligencji firmy Anthropic, który nie jest dostępny publicznie. Fakt ten obnaża uderzającą sprzeczność w amerykańskiej polityce obronnej: chociaż Pentagon oficjalnie sklasyfikował Anthropic jako potencjalne „ryzyko w łańcuchu dostaw”, agencje wywiadowcze aktywnie włączają do swojej pracy najbardziej zaawansowane narzędzia firmy.
Paradoks mitów: władza kontra bezpieczeństwo
Na początku tego miesiąca firma Anthropic wprowadziła Mythos, najnowocześniejszy model zaprojektowany specjalnie z myślą o sprostaniu wyzwaniom związanym z cyberbezpieczeństwem wysokiego poziomu. Firma podjęła jednak rzadką i znaczącą decyzję: nie udostępniać tego modelu do domeny publicznej.
Powodem tego ograniczenia jest kolosalna wydajność modelu. Anthropic stwierdziła, że Mythos jest tak biegły w wykrywaniu i przeprowadzaniu cyberataków, że udostępnienie ich publicznie może stworzyć ogromne zagrożenie dla bezpieczeństwa. Zamiast tego dostęp został ściśle ograniczony do około 40 wybranych organizacji.
Według raportów Axios, wśród tych nieujawnionych użytkowników znajduje się NSA. Główne zadania, które rozwiązują za pomocą modelu:
– Skanowanie środowisk cyfrowych w poszukiwaniu słabych punktów.
– Wyszukiwanie możliwych do wykorzystania luk w złożonych sieciach.
Brytyjski AI Safety Institute potwierdził również, że jest jednym z nielicznych podmiotów, które uzyskały dostęp do modelu.
Narastający konflikt między sektorem obronnym a gigantami technologicznymi
Wykorzystanie Mythos przez NSA ma miejsce w okresie intensywnego konfliktu między Departamentem Obrony (DoD) a firmą Anthropic. Pentagon niedawno uznał firmę zajmującą się sztuczną inteligencją za „ryzyko w łańcuchu dostaw”, co jest następstwem fundamentalnych sporów dotyczących granic etycznych i operacyjnych sztucznej inteligencji.
Spór osiągnął punkt wrzenia, gdy firma Anthropic odmówiła urzędnikom Pentagonu nieograniczonego dostępu do swoich modeli, a mianowicie zabroniła używania sztucznej inteligencji Claude do:
1. Masowa inwigilacja na terenie kraju.
2. Rozwój autonomicznych systemów uzbrojenia.
Stwarza to trudną sytuację w zakresie bezpieczeństwa narodowego: wojsko jednocześnie podnosi w sądach, że narzędzia sztucznej inteligencji stanowią zagrożenie dla bezpieczeństwa narodowego, podczas gdy agencje wywiadowcze wykorzystują je do wzmacniania cyberobrony.
Zmiana kursu politycznego
Pomimo oficjalnych sporów z Pentagonem wydaje się, że stosunki Anthropic z wyższymi przywódcami USA ulegają zmianie. Niedawne spotkania na wysokim szczeblu wskazują na ocieplenie relacji między firmą AI a Białym Domem.
Dyrektor generalny Anthropic, Dario Amodei, odbył niedawno spotkania z kluczowymi osobistościami administracji, w tym szefową sztabu Białego Domu Susie Wiles i sekretarzem skarbu Scottem Bessentem. Biały Dom określił dyskusje jako „produktywne”, sygnalizując możliwy krok w kierunku bliższej współpracy między rządem a wiodącymi twórcami sztucznej inteligencji.
Napięcie między obawami Pentagonu dotyczącymi bezpieczeństwa a potrzebami operacyjnymi NSA uwypukla kluczową kwestię: jak wykorzystać ogromną moc zaawansowanej sztucznej inteligencji do celów obronnych bez tworzenia nowych, niekontrolowanych luk w zabezpieczeniach.
Wniosek
Wykorzystanie przez NSA zastrzeżonego modelu Mythos firmy Anthropic pokazuje różnice w postrzeganiu sztucznej inteligencji przez rząd USA: w jednym kontekście jako źródło wysokiego ryzyka, a w innym jako kluczowy atut strategiczny. Ta dwoistość podkreśla ciągłą walkę o uregulowanie potężnych technologii, które są zbyt niebezpieczne dla społeczeństwa, ale zbyt ważne dla bezpieczeństwa narodowego, aby je ignorować.
