Spór między Anthropic, wiodącą firmą zajmującą się sztuczną inteligencją, a rządem USA szybko się nasila. We wtorek Anthropic złoży sprawę przed sądem federalnym, starając się o wydanie wstępnego nakazu przeciwko Departamentowi Obrony i Białemu Domowi w związku z publicznym sporem dotyczącym wojskowego wykorzystania jej modelu sztucznej inteligencji Claude.
Sedno problemu: Anthropic nie zgodził się na nieograniczone wykorzystanie swojej sztucznej inteligencji w celach wojskowych, w szczególności zakazując jej stosowania w autonomicznych systemach uzbrojenia bez nadzoru człowieka i masowej inwigilacji obywateli USA. W odpowiedzi rząd nazwał Anthropic „ryzykiem łańcucha dostaw bezpieczeństwa narodowego” i zawiesił korzystanie z ich technologii we wszystkich agencjach federalnych.
Bitwa prawna: dwa fronty
Anthropic walczy na dwóch frontach prawnych. Po pierwsze, firma domaga się przeglądu swojego statusu „ryzyka łańcucha dostaw”, argumentując, że jest to bezprecedensowe i niezgodne z prawem zastosowanie polityki historycznie zarezerwowanej dla zagranicznych przeciwników, takich jak Huawei. Firma argumentuje, że wykorzystywanie tego statusu przeciwko firmie krajowej w związku z różnicami w polityce stanowi niebezpieczny precedens.
Po drugie, Anthropic podnosi kwestie Pierwszej Poprawki, twierdząc, że umieszczenie na czarnej liście narusza ich prawa do wolności słowa i protestu. Argument ten podkreśla rosnące napięcie pomiędzy etyką korporacyjną a interesami bezpieczeństwa narodowego.
Obawy rządu: kontrola i niezawodność
Stanowisko Departamentu Obrony koncentruje się na kontroli operacyjnej. W dokumentach sądowych rząd wyraził obawy, że Anthropic może sabotować swoje systemy sztucznej inteligencji – całkowicie je unieszkodliwiając lub proaktywnie zmieniając ich zachowanie – jeśli firma uzna, że w czasie wojny przekroczyła „czerwone linie”.
Jednakże wątpliwości te nigdy nie zostały poruszone podczas początkowych negocjacji w sprawie umowy. Firma Anthropic otrzymała od Pentagonu kontrakt o wartości 200 milionów dolarów w 2025 r., ale później odmówiła wykorzystania swojej sztucznej inteligencji do masowej inwigilacji lub podejmowania decyzji w sprawie broni automatycznej. Nagła zmiana decyzji rządu odzwierciedla chęć zapewnienia niewzruszonego bezpieczeństwa w tajnych systemach wojskowych.
Szersze implikacje: punkt zwrotny w zarządzaniu sztuczną inteligencją
Sprawa przyciąga szerokie zainteresowanie społeczności AI. Naukowcy i badacze z OpenAI, Google i Microsoft, a także organizacje praw człowieka złożyli petycje popierające Anthropic. Podkreśla to szerszą debatę na temat tego, kto powinien określić granice sztucznej inteligencji: prywatne firmy przestrzegające zasad bezpieczeństwa wewnętrznego czy agencje rządowe, dla których bezpieczeństwo narodowe jest priorytetem.
Pentagon zaczął już zwracać uwagę na alternatywnych partnerów AI, w tym OpenAI, xAI i Google. Wynik tej batalii prawnej będzie jednak miał długoterminowe konsekwencje dla sposobu, w jaki rządy regulują rozwój i wdrażanie sztucznej inteligencji.
Stawka jest wysoka: Ta sprawa nie dotyczy tylko jednej firmy; chodzi o ustalenie zasad dla technologii, która będzie w coraz większym stopniu kształtować wojnę, inwigilację i przyszłość bezpieczeństwa narodowego.




























