Anthropic, startup AI terkemuka yang bernilai $380 miliar, terlibat perselisihan dengan Departemen Pertahanan AS (Pentagon) mengenai penggunaan teknologinya yang tidak dibatasi. Perselisihan inti berpusat pada klausul sederhana namun penting: apakah militer dapat menggunakan AI Anthropic untuk “penggunaan apa pun yang sah.” Hal ini akan memberi Pentagon wewenang luas untuk memanfaatkan AI untuk pengawasan, sistem senjata otonom yang mematikan, dan aplikasi lain yang saat ini dibatasi oleh kebijakan internal perusahaan.
Negosiasi tersebut telah meningkat menjadi taktik tekanan publik, dengan pejabat Pentagon dilaporkan mengancam untuk mengklasifikasikan Anthropic sebagai “risiko rantai pasokan” – sebutan yang biasanya digunakan untuk ancaman keamanan nasional. Langkah ini, yang didorong oleh CTO Pentagon Emil Michael, secara efektif akan memutus Anthropic dari kontrak pertahanan besar dan memaksa perusahaan seperti AWS, Palantir, dan Anduril untuk memutuskan hubungan. Situasi ini belum pernah terjadi sebelumnya, karena Pentagon jarang memberikan ancaman secara terbuka kepada perusahaan-perusahaan Amerika, apalagi karena ketidaksepakatan kebijakan.
Mengapa Ini Penting
Dorongan Pentagon untuk “penggunaan apa pun yang sah” mencerminkan semakin mendesaknya untuk mengintegrasikan AI ke dalam operasi militer tanpa batasan. Hal ini menimbulkan pertanyaan mendasar mengenai akuntabilitas, batasan etika, dan potensi sistem senjata otonom yang beroperasi tanpa pengawasan manusia. Perselisihan ini menyoroti ketegangan antara kemajuan teknologi yang pesat dan perlunya tata kelola AI yang bertanggung jawab.
Permintaan Utama
Anthropic telah menarik dua garis tegas: mereka tidak akan membiarkan AI-nya digunakan untuk operasi mematikan yang sepenuhnya otonom atau pengawasan domestik massal. Perusahaan berpendapat bahwa undang-undang yang ada saat ini belum mampu mengimbangi kemampuan AI, sehingga berpotensi melanggar kebebasan sipil. Selain itu, Anthropic percaya bahwa teknologi senjata yang benar-benar otonom tanpa campur tangan manusia belum cukup dapat diandalkan untuk digunakan.
Namun Pentagon bertekad untuk menghilangkan pembatasan apa pun. Memo baru-baru ini dari Menteri Pete Hegseth menuntut agar semua kontrak pengadaan AI memprioritaskan kecepatan dibandingkan keselamatan, bahkan jika itu berarti menerima “penyelarasan yang tidak sempurna.” Memo tersebut secara eksplisit menyerukan untuk mengintegrasikan AI ke dalam “eksekusi rantai mematikan” dan memprioritaskan model yang bebas dari batasan penggunaan. OpenAI, xAI, dan Google telah menegosiasikan ulang kontrak mereka untuk mematuhi persyaratan ini, namun saat ini tidak satu pun model mereka yang memiliki izin keamanan tertinggi yang diperlukan untuk operasi rahasia Pentagon.
Posisi Unik Claude
Model Claude Anthropic adalah satu-satunya AI perbatasan yang saat ini diizinkan untuk beroperasi pada jaringan Pentagon yang sepenuhnya rahasia, yang diterapkan melalui Palantir dan Top Secret Cloud Amazon. Hal ini membuatnya tidak tergantikan dalam alur kerja tertentu, sehingga memberikan pengaruh Anthropic dalam negosiasi. Upaya Pentagon untuk memasukkan Anthropic ke dalam daftar hitam akan menciptakan kerentanan pemasok tunggal, yang berpotensi menghambat operasi militer penting.
Implikasi yang Lebih Luas
Kebuntuan ini melampaui Anthropic. Laboratorium AI lainnya menghadapi tekanan serupa untuk menerima penggunaan militer tanpa batasan, namun hanya sedikit yang menolak secara terbuka. Beberapa pengamat industri berpendapat bahwa perusahaan-perusahaan ini dapat membenarkan penilaian mereka tanpa kontrak militer, sementara yang lain percaya bahwa Anthropic pada akhirnya akan menyerah. Hasilnya akan menjadi preseden tentang bagaimana teknologi AI diintegrasikan ke dalam peperangan dan pengawasan, sehingga membentuk masa depan operasi militer dan pertimbangan etis.
Penunjukan ini akan mengharuskan setiap kontraktor pertahanan yang mencari pekerjaan pemerintah untuk menyatakan bahwa mereka telah menghapus semua teknologi Anthropic dari sistem mereka.
Perselisihan ini terjadi di mata publik, menimbulkan pertanyaan tentang transparansi dan tanggung jawab perusahaan di era kecerdasan buatan. Taktik agresif Pentagon dan sikap tegas Anthropic menggarisbawahi besarnya pertaruhan dalam mengendalikan masa depan AI.




























