Antropická žaluje americkou vládu kvůli omezením AI: Zúčtování u soudu

11

Spor mezi Anthropic, přední společností zabývající se umělou inteligencí, a americkou vládou rychle eskaluje. Společnost Anthropic v úterý předloží svůj případ u federálního soudu a bude žádat o předběžné opatření proti ministerstvu obrany a Bílému domu po veřejném sporu o vojenské využití svého modelu AI Claude.

Podstata problému: Společnost Anthropic odmítla povolit neomezené vojenské použití své AI, konkrétně zakázala její použití v autonomních zbraňových systémech bez lidského dohledu a hromadného sledování občanů USA. V reakci na to vláda označila Antropické za „riziko národního bezpečnostního dodavatelského řetězce“ a pozastavila používání jejich technologie ve všech federálních agenturách.

Právní bitva: Dvě fronty

Anthropic bojuje na dvou právních frontách. Za prvé, společnost usiluje o přezkoumání svého stavu „rizika dodavatelského řetězce“ a tvrdí, že jde o bezprecedentní a nezákonné použití politiky, která byla historicky vyhrazena zahraničním protivníkům, jako je Huawei. Společnost tvrdí, že vyzbrojování tohoto statusu proti domácí firmě kvůli rozdílům v politice vytváří nebezpečný precedens.

Za druhé, Anthropic nastoluje problémy prvního dodatku tím, že tvrdí, že zařazení na černou listinu porušuje jejich práva na svobodu projevu a protest. Tento argument zdůrazňuje rostoucí napětí mezi firemní etikou a zájmy národní bezpečnosti.

Vládní obavy: kontrola a spolehlivost

Pozice ministerstva obrany je zaměřena na operační řízení. V soudních dokumentech vláda vyjádřila obavy, že by Anthropic mohl sabotovat své systémy AI – buď je úplně deaktivovat, nebo proaktivně změnit jejich chování – pokud by společnost cítila, že její „červené čáry“ byly během války překročeny.

Tyto obavy však nebyly nikdy vzneseny během počátečních jednání o smlouvě. Společnost Anthropic obdržela v roce 2025 od Pentagonu kontrakt na 200 milionů dolarů, ale později odmítla dovolit, aby její AI byla použita pro hromadné sledování nebo rozhodování o automatických zbraních. Náhlý obrat vlády odráží touhu zajistit neotřesitelnou bezpečnost v tajných vojenských systémech.

Širší důsledky: Bod zlomu pro řízení AI

Případ přitahuje širokou pozornost komunity AI. Vědci a výzkumníci z OpenAI, Google a Microsoft, stejně jako skupiny pro lidská práva, podaly petice na podporu Anthropic. To podtrhuje širší debatu o tom, kdo by měl definovat limity AI: soukromé společnosti dodržující zásady vnitřní bezpečnosti nebo vládní agentury upřednostňující národní bezpečnost.

Pentagon již začal přesouvat svou pozornost na alternativní partnery AI, včetně OpenAI, xAI a Google. Výsledek této právní bitvy však bude mít dlouhodobé důsledky pro to, jak vlády regulují vývoj a nasazení AI.

Sázky jsou vysoké: Tento případ není jen o jedné společnosti; jde o nastavení pravidel pro technologii, která bude stále více utvářet válku, sledování a budoucnost národní bezpečnosti.