Anthropic, wiodący start-up zajmujący się sztuczną inteligencją wyceniany na 380 miliardów dolarów, znalazł się w napiętym sporze z Departamentem Obrony USA (Pentagon) w związku z nieograniczonym wykorzystaniem jego technologii. W centrum sporu znajduje się prosty, ale krytyczny punkt: czy wojsko może wdrożyć sztuczną inteligencję Anthropic w „jakimkolwiek zgodnym z prawem celu”. Dałoby to Pentagonowi szerokie uprawnienia do wykorzystywania sztucznej inteligencji do celów inwigilacji, śmiercionośnych autonomicznych systemów uzbrojenia i innych zastosowań obecnie ograniczonych przez wewnętrzne zasady firmy.
Rozmowy weszły w fazę nacisku opinii publicznej, a urzędnicy Pentagonu podobno zagrozili uznaniem Anthropic za „ryzyko dla łańcucha dostaw”, określenie zwykle zarezerwowane dla zagrożeń bezpieczeństwa narodowego. Posunięcie to, na czele którego stoi dyrektor techniczny Pentagonu Emil Michael, skutecznie odcięłoby Anthropic od głównych kontraktów w dziedzinie obronności i zmusiłoby firmy takie jak AWS, Palantir i Anduril do zerwania powiązań. Sytuacja jest bezprecedensowa, ponieważ Pentagon rzadko publicznie grozi amerykańskim firmom, zwłaszcza ze względu na różnice polityczne.
Dlaczego to ma znaczenie
Naleganie Pentagonu na „jakiekolwiek zgodne z prawem cele” odzwierciedla rosnącą pilność włączenia sztucznej inteligencji do operacji wojskowych bez ograniczeń. Rodzi to fundamentalne pytania dotyczące odpowiedzialności, granic etycznych i potencjału autonomicznych systemów uzbrojenia działających bez interwencji człowieka. Spór uwydatnia napięcie pomiędzy szybkim postępem technologicznym a koniecznością odpowiedzialnego zarządzania sztuczną inteligencją.
Kluczowe wymagania
Anthropic postawiła dwie jasne linie: firma nie pozwoli na wykorzystywanie swojej sztucznej inteligencji w całkowicie autonomicznych, śmiercionośnych operacjach ani do masowego nadzoru krajowego. Firma argumentuje, że obowiązujące przepisy nie nadążają za możliwościami sztucznej inteligencji, co potencjalnie narusza wolności obywatelskie. Ponadto firma Anthropic uważa, że technologia wytwarzania prawdziwie autonomicznej broni bez interwencji człowieka nie jest jeszcze wystarczająco niezawodna, aby można ją było wdrożyć.
Pentagon jest jednak zdeterminowany, aby usunąć wszelkie ograniczenia. W niedawnej notatce sekretarza Petera Hegsetha żąda się, aby we wszystkich umowach dotyczących zamówień na sztuczną inteligencję traktowano priorytetowo szybkość nad bezpieczeństwem, nawet jeśli oznacza to akceptację „niedoskonałego dopasowania”. W notatce wyraźnie wzywa się do włączenia sztucznej inteligencji do „wykonania łańcucha zabijania” i nadania priorytetu modelom wolnym od ograniczeń użytkowania. OpenAI, xAI i Google renegocjowały już swoje umowy, aby spełnić te warunki, ale żaden z ich modeli nie zapewnia obecnie najwyższego poziomu tajności wymaganego w przypadku tajnych operacji Pentagonu.
Wyjątkowa pozycja Claude’a
Model Claude firmy Anthropic to jedyna zaawansowana sztuczna inteligencja, która jest obecnie dopuszczona do działania w całkowicie tajnych sieciach Pentagonu, wdrożonych za pośrednictwem Palantir i ściśle tajnej chmury Amazon. To sprawia, że jest niezbędny w niektórych przepływach pracy, dając firmie Anthropic przewagę w negocjacjach. Podjęta przez Pentagon próba umieszczenia firmy Anthropic na czarnej liście doprowadziłaby do powstania luki w zabezpieczeniach jednego dostawcy, która mogłaby potencjalnie zakłócać krytyczne operacje wojskowe.
Szersze implikacje
Konfrontacja wykracza poza Antropię. Inne laboratoria sztucznej inteligencji stoją przed podobną presją, aby zaakceptować nieograniczone wykorzystanie do celów wojskowych, ale niewiele z nich publicznie stawia opór. Niektórzy obserwatorzy branży argumentują, że spółki te mogą uzasadnić swoje wyceny bez kontraktów wojskowych, inni natomiast uważają, że Anthropic w końcu upadnie. Wynik ustanowi precedens dla integracji technologii sztucznej inteligencji w działaniach wojennych i inwigilacji, kształtując przyszłość operacji wojskowych i względy etyczne.
Wyznaczenie będzie wymagało od każdego wykonawcy z branży obronnej ubiegającego się o pracę rządową zaświadczenia, że usunął całą technologię antropiczną ze swoich systemów.
Debata toczy się publicznie, rodząc pytania o przejrzystość i odpowiedzialność biznesu w dobie sztucznej inteligencji. Agresywna taktyka Pentagonu i zdecydowane stanowisko Anthropic podkreślają wysoką stawkę w kontrolowaniu przyszłości sztucznej inteligencji.



























