Bentrokan antara Anthropic, sebuah perusahaan kecerdasan buatan terkemuka, dan pemerintah AS meningkat pesat. Pada hari Selasa, Anthropic akan mengajukan kasusnya di pengadilan federal untuk perintah awal terhadap Departemen Perang dan Gedung Putih, menyusul perselisihan publik mengenai penggunaan model Claude AI oleh militer.
Masalah intinya: Anthropic menolak untuk mengizinkan penerapan AI-nya secara tidak terbatas pada militer, khususnya melarang penggunaannya dalam sistem senjata otonom yang mematikan tanpa pengawasan manusia dan pengawasan massal terhadap warga AS. Sebagai tanggapan, pemerintah menyebut Anthropic sebagai “risiko rantai pasokan terhadap keamanan nasional” dan menghentikan semua penggunaan teknologi oleh pemerintah federal.
Pertarungan Hukum: Dua Front
Anthropic melawan di dua bidang hukum. Pertama, mereka berupaya mempertimbangkan kembali sebutan “risiko rantai pasokan”, dengan alasan bahwa ini adalah penerapan kebijakan yang belum pernah terjadi sebelumnya dan melanggar hukum yang secara historis hanya diperuntukkan bagi musuh asing seperti Huawei. Perusahaan berpendapat bahwa penggunaan penunjukan ini terhadap perusahaan domestik karena ketidaksepakatan kebijakan akan menjadi preseden yang berbahaya.
Kedua, Anthropic menyuarakan keprihatinan terhadap Amandemen Pertama, dengan menyatakan bahwa daftar hitam tersebut melanggar hak kebebasan berpendapat dan melakukan protes. Argumen ini menyoroti meningkatnya ketegangan antara etika perusahaan dan kepentingan keamanan nasional.
Kekhawatiran Pemerintah: Kontrol dan Keandalan
Posisi Departemen Perang berpusat pada pengendalian operasional. Dalam pengajuan ke pengadilan, pemerintah menyatakan kekhawatirannya bahwa Anthropic mungkin akan menyabotase sistem AI miliknya – baik dengan menonaktifkannya sepenuhnya atau mengubah perilakunya terlebih dahulu – jika perusahaan tersebut merasa “garis merahnya” terlampaui pada masa perang.
Namun kekhawatiran ini tidak pernah diangkat selama negosiasi kontrak awal. Anthropic mendapatkan kontrak Pentagon senilai $200 juta pada tahun 2025, tetapi kemudian menolak mengizinkan penggunaan AI-nya untuk pengawasan massal atau pengambilan keputusan senjata otomatis. Pergeseran tiba-tiba yang dilakukan pemerintah mencerminkan keinginan untuk memastikan keandalan yang tak tergoyahkan dalam sistem militer rahasia.
Implikasi yang Lebih Luas: Titik Balik Tata Kelola AI
Kasus ini menarik perhatian luas dari komunitas AI. Para ilmuwan dan peneliti di OpenAI, Google, dan Microsoft, bersama dengan kelompok hukum, telah mengajukan laporan yang mendukung Anthropic. Hal ini menggarisbawahi perdebatan yang lebih luas mengenai siapa yang harus menentukan batasan AI: perusahaan swasta yang mematuhi prinsip-prinsip keselamatan internal, atau otoritas publik yang memprioritaskan keamanan nasional.
Pentagon telah mulai mengalihkan fokusnya ke mitra AI alternatif, termasuk OpenAI, xAI, dan Google. Namun, hasil dari pertarungan hukum ini akan mempunyai implikasi jangka panjang terhadap cara pemerintah mengatur pengembangan dan penerapan AI.
Pertaruhannya tinggi: Kasus ini bukan hanya mengenai satu perusahaan; ini tentang menetapkan aturan untuk teknologi yang akan semakin menentukan peperangan, pengawasan, dan masa depan keamanan nasional.




























