додому Останні новини та статті Протистояння Anthropic Необмеженому Військовому Застосуванню ІІ: Переговори з Високими Ставками

Протистояння Anthropic Необмеженому Військовому Застосуванню ІІ: Переговори з Високими Ставками

Протистояння Anthropic Необмеженому Військовому Застосуванню ІІ: Переговори з Високими Ставками

Anthropic, провідний стартап в області ІІ, що оцінюється в 380 мільярдів доларів, опинився у напруженій конфронтації з Міністерством оборони США (Пентагоном) через необмежене використання його технологій. У центрі суперечки стоїть простий, але критично важливий пункт: чи може військове відомство розгортати ІІ від Anthropic для “будь-яких законних цілей”. Це дало б Пентагону широкі повноваження для використання ІІ з метою спостереження, створення летальних автономних систем озброєнь та інших додатків, які нині обмежені внутрішньою політикою компанії.

Переговори перейшли в стадію публічного тиску: чиновники Пентагону, за чутками, погрожують віднести Anthropic до категорії “ризику для ланцюжка поставок” – позначення, яке зазвичай резервується для загроз національній безпеці. Цей крок, ініційований технічним директором Пентагону Емілем Майклом, фактично відрізав би Anthropic від великих оборонних контрактів і змусив би такі компанії, як AWS, Palantir та Anduril розірвати зв’язки. Ситуація безпрецедентна, оскільки Пентагон рідко публічно загрожує американським компаніям, тим більше через розбіжності у політиці.

Чому це має значення

Наполегливість Пентагону на “будь-яких законних цілях” відображає зростаючу терміновість інтеграції ІІ у військові операції без обмежень. Це порушує фундаментальні питання щодо відповідальності, етичних кордонів та потенціалу автономних систем озброєнь, що діють без участі людини. Суперечка підкреслює напругу між швидким технологічним прогресом та необхідністю відповідального управління ІІ.

Ключові Вимоги

Anthropic провела два чіткі межі: компанія не дозволить використовувати свій ІІ в повністю автономних летальних операціях або для масового внутрішнього стеження. Компанія стверджує, що чинне законодавство не встигає за можливостями ІІ, що потенційно порушує громадянські свободи. Крім того, Anthropic вважає, що технологія для автономної зброї без втручання людини ще недостатньо надійна для розгортання.

Однак Пентагон сповнений рішучості усунути будь-які обмеження. Нещодавній меморандум від секретаря Пітера Хегсета вимагає, щоб у всіх контрактах на закупівлю ІІ пріоритет віддавався швидкості, а не безпеці, навіть якщо це означає ухвалення “недосконалої відповідності”. У меморандумі прямо закликається до інтеграції ІІ у “виконання ланцюжка знищення” та пріоритету моделей, вільних від обмежень використання. OpenAI, xAI та Google вже переглянули свої контракти, щоб відповідати цим умовам, але жодна з їх моделей нині не має найвищого рівня секретності, необхідного для секретних операцій Пентагону.

Унікальна Позиція Claude

Модель Claude від Anthropic – єдиний передовий ІІ, якому зараз дозволено працювати в повністю засекречених мережах Пентагону, розгорнутий через Palantir і Amazon Top Secret Cloud. Це робить її незамінною у певних робочих процесах, що дає Anthropic важелі впливу в переговорах. Спроба Пентагону внести Anthropic до чорного списку створить вразливість єдиного постачальника, що потенційно може перешкодити критично важливим військовим операціям.

Більш Широкі Наслідки

Протистояння виходить за межі Anthropic. Інші лабораторії ІІ стикаються з аналогічним тиском, щоб прийняти необмежене військове використання, але мало хто публічно чинить опір. Деякі галузеві спостерігачі стверджують, що ці компанії можуть виправдати свою оцінку без військових контрактів, в той час як інші вважають, що Anthropic зрештою поступиться. Вихід встановить прецедент для інтеграції технологій ІІ у війну та стеження, визначаючи майбутнє військових операцій та етичні міркування.

Позначення вимагатиме від кожного оборонного підрядника, який прагне державної роботи, підтвердити, що він видалив всі технології Anthropic зі своїх систем.

Ця суперечка розгортається на публіці, порушуючи питання про прозорість та корпоративну відповідальність в епоху штучного інтелекту. Агресивна тактика Пентагону та тверда позиція Anthropic наголошують на високих ставках у контролі над майбутнім ІІ.

Exit mobile version