Anthropic beralih ke pengadilan federal untuk melawan daftar hitam besar-besaran oleh pemerintahan Donald Trump, mengklaim bahwa pemerintah menandai startup AI tersebut sebagai ancaman keamanan nasional sebagai balasan atas penolakannya untuk melonggarkan protokol keselamatan. Gugatan tersebut diajukan hari Senin di Pengadilan Distrik Amerika Serikat di California Utara, menantang tindakan yang diambil setelah Presiden Trump mengarahkan lembaga federal pada bulan Februari untuk berhenti menggunakan teknologi Anthropic. Ini menyusul komentar publik dari CEO Anthropic, Dario Amodei, yang mengatakan perusahaan tidak akan mematuhi permintaan Pentagon untuk akses tanpa batas ke Claude. Keluhan tersebut menamakan beberapa lembaga federal dan pejabat senior sebagai tergugat, termasuk Menteri Pertahanan Pete Hegseth, Menteri Keuangan Scott Bessent, dan Menteri Luar Negeri Marco Rubio. “Konstitusi tidak mengizinkan pemerintah menggunakan kekuatannya yang besar untuk menghukum perusahaan atas kebebasan berpendapat yang dilindungi,” kata pengacara Anthropic dalam gugatan tersebut. “Tidak ada undang-undang federal yang mengotorisasi tindakan yang diambil di sini. Anthropic mengajukan banding ke pengadilan sebagai upaya terakhir untuk menegakkan haknya dan menghentikan kampanye balasan yang tidak sah dari Eksekutif.”
Atas arahan @POTUS, @USTreasury menghentikan semua penggunaan produk Anthropic, termasuk platform Claude, di dalam departemen kami.
Rakyat Amerika berhak mendapatkan kepercayaan bahwa setiap alat di pemerintahan melayani kepentingan publik, dan di bawah Presiden Trump… https://t.co/R7rF0ci5CY
— Menteri Keuangan Scott Bessent (@SecScottBessent) 2 Maret 2026
Sengketa ini dimulai pada Januari ketika pejabat Pentagon menuntut kontraktor AI agar sistem mereka dapat digunakan untuk “setiap penggunaan yang sah,” termasuk aplikasi militer. Meskipun Anthropic saat itu sudah menandatangani kontrak senilai $200 juta dengan Departemen Pertahanan, perusahaan menolak menghapus dua perlindungan yang melarang penggunaan Claude untuk pengawasan domestik massal terhadap warga Amerika atau untuk sistem senjata mematikan yang sepenuhnya otomatis. “Tindakan yang dipermasalahkan menyebabkan kerugian langsung dan tidak dapat diperbaiki pada Anthropic; pada orang lain yang kebebasannya akan terancam; pada mereka yang mendapatkan manfaat dari nilai ekonomi yang dapat terus diciptakan perusahaan; dan pada masyarakat global yang berhak mendapatkan dialog dan debat yang kuat tentang apa arti AI dalam peperangan dan pengawasan,” kata pengacara Anthropic dalam gugatan tersebut. Bagi pengembang AI, termasuk CEO SingularityNET, Ben Goertzel, penetapan ini adalah pilihan yang aneh dan tidak sesuai dengan makna umum dari ancaman rantai pasokan, yang biasanya diperuntukkan bagi perangkat lunak dari lawan yang mungkin mengandung malware, virus, atau spyware tersembunyi.
“Anthropic yang tidak bersedia agar perangkat lunaknya digunakan untuk pembunuhan otomatis atau pengawasan massal tampaknya tidak menimbulkan risiko semacam itu,” kata Goertzel kepada Decrypt. “Itu hanya berarti jika Anda ingin menggunakan perangkat lunak untuk pembunuhan otomatis atau pengawasan massal, maka beli perangkat lunak orang lain. Jadi logika menjadikannya risiko rantai pasokan tidak saya mengerti.” Goertzel mengatakan perbedaan di antara model AI terkemuka mungkin membatasi dampak praktis dari keputusan ini. “Pada akhirnya, Claude, ChatGPT, dan Gemini tidak jauh berbeda satu sama lain,” katanya. “Selama salah satu dari sistem teratas ini digunakan oleh pemerintah AS, semuanya tentang hal yang sama. Dan lembaga intelijen, di balik kerahasiaan tingkat tinggi, akan menggunakan perangkat lunak tersebut sesuai keinginan mereka.” Anthropic meminta pengadilan menyatakan tindakan pemerintah tidak sah dan menghentikan penegakan penetapan “risiko rantai pasokan” yang mencegah lembaga federal dan kontraktor Pentagon berbisnis dengan perusahaan tersebut. “Tidak ada alasan yang sah untuk Tindakan yang dipermasalahkan,” kata gugatan tersebut. “Pengadilan harus menyatakannya tidak sah dan melarang Tergugat mengambil langkah apa pun untuk melaksanakannya.” Anthropic belum segera menanggapi permintaan komentar dari Decrypt. Bahkan setelah menetapkan Anthropic sebagai risiko terhadap keamanan nasional, Claude tetap digunakan dalam operasi militer yang sedang berlangsung, termasuk oleh Komando Pusat AS untuk membantu menganalisis intelijen dan mengidentifikasi target selama serangan terhadap Iran.
Jennifer Huddleston, anggota senior di bidang kebijakan teknologi di Cato Institute, mengatakan dalam sebuah pernyataan yang dibagikan kepada Decrypt bahwa kasus ini menimbulkan kekhawatiran tentang perlindungan konstitusional ketika klaim keamanan nasional digunakan untuk membenarkan tindakan pemerintah. “Meski pengadilan sebelumnya ragu untuk mempertanyakan klaim pemerintah tentang kekhawatiran keamanan nasional, keadaan dalam kasus ini tentu menyoroti risiko nyata terhadap hak Amandemen Pertama warga Amerika jika pertimbangan dasar dari klaim tersebut tidak diperiksa secara menyeluruh,” katanya.