Perserteruan publik antara Departemen Pertahanan Amerika Serikat (yang belakangan ini kerap dijuluki sebagai ‘Departemen Perang’) dengan pemasok teknologi AI-nya, Anthropic, merupakan fenomena yang tidak lazim. Pasalnya, perseteruan ini membenturkan kekuatan negara dengan kekuasaan korporasi dengan jalinan hubungan yang sangat mesra.Akar perselisihan ini bermula beberapa bulan lalu, di tengah kritik berulang dari David Sacks yakni ‘panglima’ (czar) bidang AI dan kripto pilihan Donald Trump. Sacks kerap mengkritik kebijakan Anthropic yang ia anggap terlalu woke.Ketegangan memuncak setelah laporan media menyebut teknologi Anthropic telah digunakan oleh militer AS dalam penculikan paksa terhadap mantan presiden Venezuela, Nicolás Maduro, Januari lalu.Hal ini dikabarkan memicu keresahan internal perusahaan yang berbasis di San Francisco tersebut. Anthropic pun menepis tudingan tersebut dan menyatakan tidak ada indikasi pelanggaran aturan perusahaan dalam operasi militer di Venezuela seperti yang ditudingkan.Kendati demikian, Menteri Pertahanan AS, Pete Hegseth telah melayangkan ultimatum kepada Anthropic. Pemerintah AS mengancam akan memberlakukan Undang-Undang Produksi Pertahanan tahun 1950. Jika Anthropic tidak benahi etikanya paling lambat Jumat, 27 Februari pukul 17.01 waktu Washington. Aturan ini memungkinkan Departemen Pertahanan (DoD) untuk mengambil alih dan menggunakan teknologi sesuka hati.Di saat yang sama, Anthropic turut berpotensi ditetapkan sebagai risiko rantai pasok yang akan membahayakan kontrak-kontrak mereka dengan pemerintah. Langkah-langkah luar biasa ini mungkin tampak kontradiktif, walaupun sebenarnya sejalan dengan pendekatan administrasi AS saat ini yang gemar melakukan gertakan besar dan menjaga ketidakjelasan arah kebijakan publik mereka. Video: France 24. Inti dari perselisihan ini sebenarnya tentang bagaimana Claude, model bahasa besar (large language model) milik Anthropic digunakan dalam konteks militer. Di berbagai sektor industri, Claude telah menjalankan beragam tugas otomatis, mulai dari menulis, pemrograman, hingga penalaran dan analisis data.Pada Juli 2024, perusahaan analisis data asal AS, Palantir, mengumumkan kemitraannya dengan Anthropic untuk ‘menghadirkan model AI Claude ke dalam operasi intelijen dan pertahanan pemerintah AS’. Setahun kemudian, Anthropic menandatangani kontrak senilai US$200 juta (sekitar Rp3,1 triliun) dengan Departemen Pertahanan (DoD). Kesepakatan tersebut menetapkan sejumlah ketentuan melalui kebijakan penggunaan yang wajar (acceptable use policy) milik perusahaan.Batasan ini bakal melarang penggunaan Claude untuk pengawasan massal terhadap warga AS atau dalam sistem senjata otonom penuh. Senjata semacam itu, begitu diaktifkan, dapat memilih dan menyerang sasaran tanpa campur tangan manusia sedikit pun.Menurut Anthropic, kedua tuntutan pemerintah tersebut melanggar definisi ‘AI yang bertanggung jawab’ versi mereka. Namun, Hegseth dan pihak Departemen Pertahanan AS menentang keberatan tersebut karena menganggap batasan justru bakal berdampak terlalu mengekang di tengah lingkungan geopolitik yang penuh ketidakpastian, ketidakstabilan, dan batas-batas yang kian kabur.Mereka bersikeras bahwa AI yang bertanggung jawab seharusnya mencakup ‘segala penggunaan yang sah menurut hukum’ atas model-model AI oleh militer AS. Sebuah memorandum yang dikeluarkan oleh Hegseth pada 9 Januari 2026 menyatakan: Keberagaman, Kesetaraan, dan Inklusi serta ideologi sosial tidak memiliki tempat di Departemen Perang. Oleh karena itu, kita tidak boleh menggunakan model AI yang menyertakan penyelarasan ideologis yang dapat mengganggu kemampuannya dalam memberikan respons jujur secara objektif terhadap instruksi pengguna.Memo tersebut menginstruksikan agar istilah ‘segala penggunaan yang sah menurut hukum’ (any lawful use) segera dimasukkan ke dalam kontrak-kontrak masa depan Departemen Pertahanan (DoD) untuk layanan AI dalam waktu 180 hari.Pesaing Anthropic mulai merapatBatasan yang ditetapkan Anthropic tidak sepenuhnya menutup pintu bagi praktik pengawasan massal terhadap komunitas global. Nyatanya, larangan tersebut hanya berlaku bagi warga negara Amerika Serikat.Selain itu, meskipun Anthropic dengan tegas menolak sistem senjata otonom penuh, kebijakan penggunaan mereka tidak menyinggung berbagai perkembangan penggunaan AI yang dapat memicu atau memperbesar skala kekerasan. Padahal, pembatasan yang demikian dapat memberikan kendali moral terhadap penggunanya. Saat ini, Anthropic memang unggul karena model bahasa besar mereka telah terintegrasi dalam sistem pemerintah Amerika Serikat dengan tingkat izin keamanan yang tinggi. Hal ini membuat produk mereka menjadi yang terdepan. Walaupun begitu, pesaing Anthropic kini mulai bersiap untuk menyusul.Beberapa bulan terakhir misalnya, Palantir gencar memperluas kerja samanya dengan Pentagon. Ekspansi bisnis ini memicu kompetisi model AI dalam sistem pertahanan Amerika Serikat.Bahkan, Google baru-baru ini memperbarui panduan etikanya dengan menghapus janji untuk tidak menggunakan AI dalam pengembangan senjata dan pengawasan massal. Langkah serupa diambil OpenAI yang mengubah pernyataan misinya dengan menghapus aspek keamanan sebagai nilai utama. Tak ketinggalan, xAI milik Elon Musk (pencipta chatbot Grok) juga telah menyetujui standar ‘penggunaan sah apa pun’ yang ditetapkan Pentagon.Ujian bagi AI MiliterBagi C.S. Lewis, keberanian adalah induk dari segala kebajikan, karena ia merupakan perwujudan dari setiap nilai moral saat berada di titik ujian. Kini, Anthropic tengah menghadapi titik ujian tersebut.Pada 24 Februari, Anthropic mengumumkan pembaruan terbaru atas kebijakan pengembangan bertanggung jawab mereka. Kebijakan ini merupakan kerangka kerja sukarela untuk memitigasi risiko katastrofik dari sistem AI. Menurut majalah Time, perubahan tersebut mencakup langkah perusahaan untuk ‘membatalkan janji bahwa mereka tidak akan merilis model AI jika tidak bisa menjamin mitigasi risiko yang memadai sebelumnya’. Jared Kaplan, Chief Science Officer dari Anthropic, mengatakan kepada majalah Time: “Melihat pesatnya kemajuan AI, kami merasa tidak masuk akal jika kami harus membuat komitmen sepihak sementara para pesaing terus melaju kencang di depan.”Rilis pers perusahaan-perusahaan Silicon Valley kerap dipenuhi narasi etika demi membedakan diri dengan para ‘aktor jahat’ seperti Rusia dan Cina. Namun, kata-kata etis tidak sama dengan tindakan nyata. Sebab, tindakan nyata sering kali mendatangkan konsekuensi finansial.Hadirnya drama ini ke publik tampaknya bukan tanpa alasan. Pada awal Februari, perwakilan dari berbagai negara, kecuali Amerika Serikat, berkumpul untuk ketiga kalinya demi menyepakati penggunaan ‘AI yang bertanggung jawab’ di ranah militer. Selain itu, pada 2–6 Maret, PBB juga akan menggelar konferensi terbaru guna membahas cara terbaik membatasi penggunaan teknologi baru dalam sistem senjata otonom yang mematikan.Meskipun sebenarnya telat dilakukan, debat hukum dan etika mengenai peran teknologi AI dalam masa depan peperangan sangat krusial. Meskipun demikian, peran AI kemungkinan besar akan tetap terus diuji dalam lebih banyak situasi konflik sebelum benar-benar ada kesepakatan global yang tercapai.Adinda Ghinashalsabilla Salman menerjemahkan artikel ini dari bahasa Inggris.Elke Schwarz terafiliasi dengan International Committee for Robot Arms Control (ICRAC)Neil Renic terafiliasi dengan International Committee for Robot Arms Control (ICRAC)