Anthropic Confronting Unlimited AI Military Applications: High Stakes Negotiations

23
Anthropic Confronting Unlimited AI Military Applications: High Stakes Negotiations

Anthropic, přední startup s umělou inteligencí v hodnotě 380 miliard dolarů, se ocitl v napjatém sporu s ministerstvem obrany USA (Pentagon) kvůli neomezenému používání jeho technologie. V centru sporu je jednoduchý, ale kritický bod: zda armáda může nasadit AI Anthropic pro „jakýkoli zákonný účel“. To by Pentagonu dalo širokou pravomoc používat AI pro sledování, smrtící autonomní zbraňové systémy a další aplikace, které jsou v současnosti omezeny interními firemními politikami.

Rozhovory se přesunuly do fáze veřejného tlaku, přičemž představitelé Pentagonu údajně pohrozili, že označí Anthropic za „riziko dodavatelského řetězce“, což je označení obvykle vyhrazené pro hrozby národní bezpečnosti. Tento krok, vedený technickým ředitelem Pentagonu Emilem Michaelem, by fakticky odřízl Anthropic od velkých zakázek v oblasti obrany a donutil společnosti jako AWS, Palantir a Anduril přerušit vztahy. Situace je bezprecedentní, protože Pentagon zřídkakdy veřejně vyhrožuje americkým společnostem, zejména kvůli rozdílům v politice.

Proč na tom záleží

Trvání Pentagonu na „jakémkoli zákonném účelu“ odráží rostoucí naléhavost integrovat AI do vojenských operací bez omezení. To vyvolává zásadní otázky týkající se odpovědnosti, etických hranic a potenciálu autonomních zbraňových systémů fungujících bez lidského zásahu. Spor zdůrazňuje napětí mezi rychlým technologickým pokrokem a potřebou zodpovědně řídit AI.

Klíčové požadavky

Společnost Anthropic načrtla dvě jasné linie: společnost nedovolí, aby její umělá inteligence byla používána v plně autonomních smrtících operacích nebo pro hromadné domácí sledování. Společnost tvrdí, že současná legislativa nedržela krok se schopnostmi AI, což by mohlo porušovat občanské svobody. Kromě toho se Anthropic domnívá, že technologie pro skutečně autonomní zbraně bez lidského zásahu zatím není dostatečně spolehlivá pro nasazení.

Pentagon je však odhodlán veškerá omezení odstranit. Nedávné sdělení ministra Petera Hegsetha požaduje, aby všechny zakázky na nákup umělé inteligence upřednostňovaly rychlost před bezpečností, i když to znamená akceptovat „nedokonalé přizpůsobení“. Sdělení výslovně vyzývá k integraci umělé inteligence do „provádění zabijáckého řetězce“ a upřednostňování modelů bez omezení použití. OpenAI, xAI a Google již znovu projednaly své smlouvy, aby tyto podmínky splnily, ale žádný z jejich modelů v současné době nemá nejvyšší stupeň utajení vyžadovaný pro tajné operace Pentagonu.

Unikátní pozice Clauda

Model Claude společnosti Anthropic je jedinou pokročilou umělou inteligencí, která je v současné době schválena pro provoz v plně utajovaných sítích Pentagonu, nasazených prostřednictvím Palantir a Amazon Top Secret Cloud. Díky tomu je v určitých pracovních postupech nepostradatelný a dává Anthropic vliv na vyjednávání. Pokus Pentagonu zařadit Anthropic na černou listinu by vytvořil jedinou zranitelnost dodavatele, která by mohla potenciálně zasahovat do kritických vojenských operací.

Širší důsledky

Konfrontace přesahuje antropickou oblast. Jiné laboratoře umělé inteligence čelí podobnému tlaku, aby přijaly neomezené vojenské použití, ale jen málo z nich veřejně odolává. Někteří pozorovatelé z oboru tvrdí, že tyto společnosti mohou odůvodnit svá ocenění bez vojenských kontraktů, zatímco jiní věří, že Anthropic nakonec ustoupí. Výsledek vytvoří precedens pro integraci technologií umělé inteligence do válčení a sledování, což utváří budoucnost vojenských operací a etických úvah.

Označení bude vyžadovat, aby každý dodavatel obrany, který hledá vládní práci, potvrdil, že ze svých systémů odstranil veškerou antropickou technologii.

Debata se odehrává na veřejnosti a vyvolává otázky o transparentnosti a firemní odpovědnosti ve věku umělé inteligence. Agresivní taktika Pentagonu a silný postoj Anthropic podtrhují vysoké sázky na ovládání budoucnosti AI.