Anthropic, wiodący twórca sztucznej inteligencji, ogłosił utworzenie nowego modelu o nazwie Claude Mythos Preview. Jednak w ramach ruchu oznaczającego zmianę podejścia do zarządzania wysokowydajną sztuczną inteligencją firma zdecydowała się nie udostępniać modelu publicznie.
Zamiast tego Anthropic ogranicza dostęp do małego kręgu liderów branży, aby rozwiązać narastający problem: ryzyko wykorzystania zaawansowanej sztucznej inteligencji jako broni w cyberwojnie.
Projekt Glasswing: Koalicja Defensywna
Zamiast wprowadzać grę na dużą skalę, Anthropic wprowadza Mythos za pośrednictwem konsorcjum znanego jako Project Glasswing. W tej grupie znajduje się ponad 40 głównych graczy technologicznych, w tym:
- Giganci technologiczni: Apple, Amazon, Microsoft i Google.
- Dostawcy sprzętu i infrastruktury: Cisco i Broadcom.
- Obrońcy Open Source: Fundacja Linux.
Celem tej koalicji jest wykorzystanie zaawansowanych możliwości rozumowania modelu do identyfikacji i naprawienia luk w zabezpieczeniach w oprogramowaniu i infrastrukturze o znaczeniu krytycznym, zanim będą mogły zostać wykorzystane przez osoby atakujące. Aby wesprzeć tę inicjatywę, Anthropic przekazuje projektowi aż do 100 milionów dolarów w postaci kredytów Claude.
Dlaczego to ma znaczenie: sztuczna inteligencja to „rachunek”
Decyzja o ukryciu Mythos przed opinią publiczną podkreśla rosnące napięcie w branży AI: równowagę między innowacją a bezpieczeństwem. W miarę jak modele stają się coraz bardziej zdolne do zrozumienia złożonego kodu, stają się technologiami podwójnego zastosowania. Z jednej strony mogą pomóc programistom chronić oprogramowanie; z drugiej strony hakerzy mogą je wykorzystać do znalezienia luk typu zero-day (błędów, o których twórcy oprogramowania nie są jeszcze świadomi).
Kierownictwo antropiczne uważa, że zbliżamy się do krytycznego punktu zwrotnego w cyberbezpieczeństwie.
„Naszym celem jest podnoszenie świadomości i zapewnienie uczciwym graczom przewagi w procesie ochrony infrastruktury publicznej i prywatnej oraz kodu”,
– Jared Kaplan, główny naukowiec w Anthropic
Logan Graham, szef zespołu testującego bezpieczeństwo w Anthropic, nazwał tę publikację „rachunkiem” dla całej branży. Oznacza to, że obecne praktyki w zakresie bezpieczeństwa oprogramowania mogą nie wystarczyć w epoce, w której sztuczna inteligencja może zautomatyzować wyszukiwanie wyrafinowanych exploitów.
Zmiana paradygmatu zarządzania sztuczną inteligencją
Ograniczając dostęp do Mythos do sprawdzonej grupy „graczy działających w dobrej wierze”, Anthropic próbuje stworzyć precedens w zakresie traktowania „modeli granicznych” – sztucznej inteligencji o potencjalnie niebezpiecznych możliwościach. Podejście to oznacza przejście od tradycyjnego modelu „otwartego uwalniania” do bardziej kontrolowanej strategii zbiorowej obrony.
Posunięcie to rodzi ważne pytania dotyczące przyszłości branży:
Czy inni twórcy sztucznej inteligencji będą podążać za tym restrykcyjnym modelem, aby tworzyć narzędzia o dużej mocy?
– Czy prywatne konsorcjum będzie w stanie skutecznie chronić globalną infrastrukturę cyfrową?
– Jak rozwinie się przepaść pomiędzy „defensywną sztuczną inteligencją” a „ofensywną sztuczną inteligencją”?
Wniosek
Decyzja Anthropic o ograniczeniu dostępu do Claude Mythos wyznacza nową erę rozwoju sztucznej inteligencji, w której zdolność do ochrony oprogramowania jest uważana za zbyt niebezpieczną, aby pozostawić ją w rękach ogółu społeczeństwa. Dzięki Project Glasswing firma próbuje zbudować tarczę obronną, aby pozostać o krok przed cyberzagrożeniami opartymi na sztucznej inteligencji.





























