Anthropic, ведущий стартап в области ИИ, оцениваемый в 380 миллиардов долларов, оказался в напряженной конфронтации с Министерством обороны США (Пентагоном) из-за неограниченного использования его технологий. В центре спора стоит простой, но критически важный пункт: может ли военное ведомство развертывать ИИ от Anthropic для «любых законных целей». Это предоставило бы Пентагону широкие полномочия для использования ИИ в целях наблюдения, создания летальных автономных систем вооружений и других приложений, которые в настоящее время ограничены внутренней политикой компании.
Переговоры перешли в стадию публичного давления: чиновники Пентагона, по слухам, угрожают отнести Anthropic к категории «риска для цепочки поставок» — обозначение, обычно резервируемое для угроз национальной безопасности. Этот шаг, инициированный техническим директором Пентагона Эмилем Майклом, фактически отрезал бы Anthropic от крупных оборонных контрактов и вынудил бы такие компании, как AWS, Palantir и Anduril, разорвать связи. Ситуация беспрецедентна, поскольку Пентагон редко публично угрожает американским компаниям, тем более из-за разногласий в политике.
Почему Это Имеет Значение
Настойчивость Пентагона на «любых законных целях» отражает растущую срочность интеграции ИИ в военные операции без ограничений. Это поднимает фундаментальные вопросы об ответственности, этических границах и потенциале автономных систем вооружений, действующих без участия человека. Спор подчеркивает напряжение между быстрым технологическим прогрессом и необходимостью ответственного управления ИИ.
Ключевые Требования
Anthropic провела две четкие границы: компания не позволит использовать свой ИИ в полностью автономных летальных операциях или для массовой внутренней слежки. Компания утверждает, что действующее законодательство не успевает за возможностями ИИ, что потенциально нарушает гражданские свободы. Кроме того, Anthropic считает, что технология для действительно автономного оружия без вмешательства человека еще недостаточно надежна для развертывания.
Однако Пентагон полон решимости устранить любые ограничения. Недавний меморандум от секретаря Питера Хегсета требует, чтобы во всех контрактах на закупку ИИ приоритет отдавался скорости, а не безопасности, даже если это означает принятие «несовершенного соответствия». В меморандуме прямо призывается к интеграции ИИ в «выполнение цепочки уничтожения» и приоритету моделей, свободных от ограничений использования. OpenAI, xAI и Google уже пересмотрели свои контракты, чтобы соответствовать этим условиям, но ни одна из их моделей в настоящее время не имеет наивысшего уровня секретности, необходимого для секретных операций Пентагона.
Уникальная Позиция Claude
Модель Claude от Anthropic — единственный передовой ИИ, которому в настоящее время разрешено работать в полностью засекреченных сетях Пентагона, развернутый через Palantir и Amazon Top Secret Cloud. Это делает ее незаменимой в определенных рабочих процессах, что дает Anthropic рычаги влияния в переговорах. Попытка Пентагона внести Anthropic в черный список создаст уязвимость единственного поставщика, что потенциально может помешать критически важным военным операциям.
Более Широкие Последствия
Противостояние выходит за рамки Anthropic. Другие лаборатории ИИ сталкиваются с аналогичным давлением, чтобы принять неограниченное военное использование, но немногие публично сопротивляются. Некоторые отраслевые наблюдатели утверждают, что эти компании могут оправдать свою оценку без военных контрактов, в то время как другие считают, что Anthropic в конечном итоге уступит. Исход установит прецедент для интеграции технологий ИИ в войну и слежку, определяя будущее военных операций и этические соображения.
Обозначение потребует от каждого оборонного подрядчика, стремящегося к государственной работе, подтвердить, что он удалил все технологии Anthropic из своих систем.
Этот спор разворачивается на публике, поднимая вопросы о прозрачности и корпоративной ответственности в эпоху искусственного интеллекта. Агрессивная тактика Пентагона и твердая позиция Anthropic подчеркивают высокие ставки в контроле над будущим ИИ.
