Militer AS Masih Gunakan Claude, Tapi Klien Teknologi Pertahanan Ramai-Ramai Tinggalkan Anthropic

Meski di-blacklist, militer AS rupanya masih memakai Claude untuk operasi di Iran. Sebaliknya, kontraktor pertahanan justru ramai-ramai beralih ke AI pesaing.

2 Jan 2026 • 2 menit membaca

RadarAI.id | Militer AS Masih Gunakan Claude, Tapi Klien Teknologi Pertahanan Ramai-Ramai Tinggalkan Anthropic

Amerika Serikat kini menghadapi situasi paradoks terkait penerapan kecerdasan buatan di ranah militer. Menurut laporan TechCrunch, militer AS dipastikan masih terus menggunakan model Claude dari Anthropic. Teknologi canggih ini terus diandalkan untuk memproses intelijen dan mempercepat rentetan keputusan taktis dalam konflik yang sedang berlangsung di Iran. Fakta ini sangat ironis mengingat pemerintah AS baru saja menetapkan Anthropic sebagai risiko rantai pasok dan melarang keras penggunaannya untuk lembaga pertahanan.

Penggunaan Claude yang masih berlanjut oleh militer ini dimungkinkan oleh adanya kebijakan masa tenggang. Arahan presiden yang memboikot teknologi tersebut nyatanya memberikan waktu transisi (phase out) selama enam bulan bagi lembaga federal untuk menyingkirkan sistem AI yang dilarang. Selama masa pergantian krusial inilah, pasukan di lapangan tetap memaksimalkan kapabilitas analitik Claude, menyoroti betapa krusialnya sistem tersebut hingga militer enggan mematikannya secara tiba-tiba di tengah operasi aktif.

Di luar zona tempur, boikot ini justru memicu eksodus besar-besaran di industri swasta. Ketidakpastian membuat klien dan kontraktor teknologi pertahanan (defense-tech) dilaporkan panik melarikan diri dari ekosistem Anthropic. Mereka berbondong-bondong mengalihkan kontrak dan infrastruktur AI mereka kepada pihak pesaing untuk mengamankan kemitraan federal di masa depan. Akibatnya, keteguhan etika Anthropic menolak senjata otonom kini membuahkan kerugian komersial yang sangat memukul posisi bisnis mereka di sektor teknologi militer AS.

Kembali