Sampul Majalah TIME menampilkan wawancara eksklusif dengan Anthropic: Perusahaan paling disruptif di dunia, valuasi $38 miliar melampaui Goldman Sachs

動區BlockTempo

TIME mengungkapkan melalui laporan mendalam bahwa Anthropic, karena menolak penggunaan Claude untuk sistem senjata otonom sepenuhnya dan pengawasan massal terhadap warga AS, telah masuk daftar risiko rantai pasokan keamanan nasional oleh pemerintahan Trump; pada hari yang sama, OpenAI dengan cepat mengambil alih kontrak militer, dan perlombaan “menurun” ini sedang menguji batas prinsip perusahaan AI paling disruptif di dunia. Artikel ini berasal dari TIME berjudul “The Most Disruptive Company in the World” karya Leslie Dickstein dan Simmone Shah, diterjemahkan dan disunting oleh Dongqu.
(Prakata: Penggunaan pengenalan wajah AI menyebabkan salah tangkap! Nenek di AS dipenjara selama setengah tahun di penjara 1200 mil jauhnya, polisi tidak pernah minta maaf)
(Informasi latar belakang: Artikel populer mantan CTO Dropbox “Saya menghabiskan seumur hidup untuk pekerjaan ini, sekarang tidak berharga dan mudah didapat”)

Daftar Isi Artikel

Toggle

  • Perang Abadi antara Keamanan dan Kecepatan
  • Dari Kecil ke Pemimpin: Jejak Kebangkitan Anthropic
  • Dua Garis Merah: Senjata Otonom dan Pengawasan Massal
  • Konflik Budaya dan Perpecahan Politik
  • Asal Usul Anthropic: Anomali Prioritas Keamanan
  • Kode Claude: Mendefinisikan Ulang Profesi “Insinyur”
  • Self-Improvement Recursive: Ketakutan dan Ketertarikan terhadap Percepatan AI
  • Pelonggaran Kebijakan RSP: Apakah Pembatasan Diri Gagal?
  • Operasi Venezuela: AI Pertama Kali Intervensi Mendalam di Medan Tempur Nyata
  • Gagal Negosiasi, OpenAI Ambil Alih Kontrak
  • Setelah Badai: Bisakah Anthropic Bertahan?

Di sebuah kamar hotel di Santa Clara, California, lima anggota Anthropic berkumpul di sekitar laptop, tampak tegang. Itu bulan Februari 2025. Mereka sedang menghadiri seminar di dekat situ, tiba-tiba menerima pesan yang membuat mereka gelisah: hasil eksperimen terkendali menunjukkan bahwa versi baru Claude yang akan dirilis mungkin membantu teroris dalam sintesis senjata biologis.

Kelima orang ini tergabung dalam “frontier red team” Anthropic, yang secara khusus menilai kemampuan canggih Claude dan memodelkan berbagai skenario ekstrem untuk menilai risiko potensial, mulai dari serangan siber hingga ancaman keamanan biologis. Setelah menerima alarm, mereka berlari kembali ke kamar, membalikkan papan tempat tidur sebagai meja kerja darurat, dan mulai memeriksa hasil pengujian satu per satu.

Setelah berjam-jam analisis tekanan tinggi, tim masih belum bisa memastikan apakah produk baru ini cukup aman. Akhirnya, Anthropic memutuskan menunda peluncuran Claude 3.7 Sonnet selama 10 hari penuh, sampai tim yakin risiko berada dalam batas yang dapat diterima.

Mungkin terdengar hanya sepuluh hari, tetapi bagi perusahaan yang berada di garis depan teknologi dan sedang membentuk ulang dunia dengan industri AI yang berkembang pesat, waktu itu seperti satu generasi yang panjang.

Perang Abadi antara Keamanan dan Kecepatan

“Frontier red team” yang dipimpin oleh Logan Graham, mengenang insiden “ketakutan senjata biologis” itu sebagai cerminan tekanan yang dihadapi Anthropic di saat-saat kritis—bukan hanya untuk perusahaan ini, tetapi juga untuk seluruh dunia. Anthropic adalah salah satu lembaga eksperimen AI terdepan yang sangat menekankan keamanan, namun sekaligus berada di garis depan kompetisi, berusaha membangun sistem AI yang semakin kuat. Banyak karyawan percaya bahwa jika teknologi ini keluar dari kendali, konsekuensinya bisa mengerikan—dari perang nuklir hingga kepunahan manusia.

Graham, yang berusia 31 tahun, tampak muda dan cerah, tetapi tidak ragu memikul tanggung jawab menyeimbangkan keuntungan besar dan risiko besar dari AI. Ia berkata, “Banyak orang tumbuh di dunia yang relatif damai, dan secara intuitif mereka berpikir bahwa ada ruang rapat di mana sekelompok orang dewasa yang berpengalaman tahu bagaimana mengarahkan semuanya kembali ke jalur yang benar.”

“Tapi kenyataannya, tidak ada ‘tim dewasa’. Ruang itu tidak ada. Pintu itu tidak ada. Tanggung jawabnya ada di pundakmu sendiri.” Jika kata-kata ini belum cukup mengguncang, dengarkan bagaimana dia menggambarkan alarm senjata biologis itu: “Itu hari yang cukup menarik dan mendebarkan.”

Beberapa minggu kemudian, dalam wawancara di markas besar Anthropic, Graham berbicara tentang pengalaman tersebut. TIME menghabiskan tiga hari di sana, mewawancarai eksekutif, insinyur, manajer produk, dan tim keamanan, berusaha memahami mengapa perusahaan yang dulu dianggap sebagai “outsider” dalam perlombaan AI tiba-tiba menjadi pemimpin.

Dari Kecil ke Pemimpin: Jejak Kebangkitan Anthropic

Saat itu, Anthropic baru saja mengumpulkan dana sebesar 30 miliar dolar dari investor, bersiap untuk IPO yang mungkin akan dilakukan tahun ini. (Perlu dicatat bahwa Salesforce juga merupakan salah satu investor Anthropic, dan Marc Benioff, pemilik TIME dan CEO Salesforce, adalah salah satu pendiri dan pendukung utama.) Kini, valuasi perusahaan ini telah melonjak menjadi 380 miliar dolar, melampaui Goldman Sachs, McDonald’s, dan Coca-Cola.

Pertumbuhan pendapatan mereka sangat cepat. Sistem AI Claude diakui sebagai model kelas dunia, dan produk seperti Claude Code serta Claude Cowork mulai mendefinisikan ulang batas profesi “insinyur.”

Alat mereka begitu kuat sehingga setiap kali versi baru dirilis, pasar modal berguncang, karena para investor mulai menyadari bahwa terobosan teknologi ini bisa mengubah seluruh industri—dari layanan hukum hingga pengembangan perangkat lunak. Dalam beberapa bulan terakhir, Anthropic dianggap sebagai salah satu perusahaan paling berpotensi mengubah “bentuk kerja masa depan.”

Selanjutnya, Anthropic terlibat dalam kontroversi sengit tentang “bentuk peperangan masa depan.”

Selama lebih dari setahun, Claude tetap menjadi model AI yang paling diandalkan pemerintah AS dan merupakan sistem AI terdepan pertama yang diizinkan digunakan dalam lingkungan rahasia. Pada Januari 2026, bahkan digunakan dalam operasi berani: penangkapan Presiden Venezuela Nicolás Maduro di Caracas. Dilaporkan bahwa AI ini digunakan untuk perencanaan misi dan analisis intelijen, menandai pertama kalinya AI canggih ini terlibat secara mendalam dalam operasi militer nyata.

Namun, dalam beberapa minggu berikutnya, hubungan antara Anthropic dan Departemen Pertahanan AS memburuk dengan cepat. Pada 27 Februari, pemerintahan Trump mengumumkan bahwa Anthropic masuk daftar risiko rantai pasokan keamanan nasional—pertama kalinya sebuah perusahaan domestik diberi label ini.

Situasi memanas menjadi konflik terbuka. Trump memerintahkan seluruh pemerintah AS berhenti menggunakan semua perangkat lunak dari Anthropic. Menteri Pertahanan Pete Hegseth mengumumkan bahwa perusahaan yang berhubungan dengan pemerintah tidak boleh lagi berbisnis dengan Anthropic. Pada saat yang sama, pesaing utama Anthropic, OpenAI, dengan cepat mengambil alih kontrak militer terkait.

Begitulah, perusahaan AI yang dulu dianggap paling disruptif di dunia ini, tiba-tiba menemukan dirinya dikendalikan oleh kekuatan yang lebih besar—yaitu pemerintahnya sendiri.

Dua Garis Merah: Senjata Otonom dan Pengawasan Massal

Inti dari konflik ini adalah: siapa yang berhak menentukan batasan teknologi yang dianggap sebagai salah satu senjata terkuat Amerika?

Anthropic tidak menentang penggunaan alatnya untuk keperluan militer. Mereka berpendapat bahwa memperkuat kekuatan militer AS adalah satu-satunya cara realistis untuk menahan ancaman negara. Tapi CEO Dario Amodei menentang upaya Pentagon untuk menegosiasikan ulang kontrak dan memperluas penggunaan AI ke “semua penggunaan yang sah” (all lawful use).

Amodei mengajukan dua kekhawatiran utama: pertama, dia tidak ingin AI Anthropic digunakan dalam sistem senjata otonom sepenuhnya; kedua, dia menentang penggunaan teknologi tersebut untuk pengawasan massal terhadap warga AS.

Namun, bagi Hegseth dan stafnya, posisi ini sama dengan perusahaan swasta yang berusaha mengendalikan operasi militer.

Departemen Pertahanan menganggap bahwa Anthropic, dengan bersikeras menahan diri dari “pengaturan keamanan yang tidak perlu”, terus-menerus membahas berbagai skenario hipotetis dan menunda negosiasi, secara efektif mengikis dasar kerjasama mereka.

Dalam pandangan pemerintahan Trump, sikap Amodei dianggap sombong dan keras kepala. Tidak peduli seberapa canggih produk perusahaan, mereka tidak seharusnya memaksakan penilaian mereka ke dalam rantai komando militer.

Deputi Menteri Pertahanan Emil Michael menggambarkan negosiasi ini: “Situasinya seperti ini. Saya tidak bisa mengelola departemen yang memiliki 3 juta orang dengan aturan-aturan yang bahkan tidak bisa saya bayangkan atau pahami.”

Konflik Budaya dan Perpecahan Politik

Dari Silicon Valley hingga Capitol Hill, banyak pengamat mempertanyakan: apakah konflik ini benar-benar hanya soal kontrak?

Sebagian kritikus berpendapat bahwa tindakan pemerintahan Trump lebih mirip upaya menekan perusahaan yang memiliki posisi politik berbeda. Dalam memo internal yang bocor kemudian, Amodei menulis: “Alasan sebenarnya mereka tidak menyukai kami adalah karena kami tidak menyumbang kepada Trump. Kami tidak memuji-muji dia seperti rezim otoriter (dan Sam Altman melakukannya). Kami mendukung regulasi AI, yang bertentangan dengan agenda politik mereka; kami berbicara jujur tentang banyak isu AI (seperti penggantian pekerjaan); dan kami berpegang teguh pada prinsip-prinsip dasar, bukan bersekongkol dalam apa yang mereka sebut ‘sandi keamanan’ (safety theater).”

Namun, Michael membantah: “Itu semua kebohongan belaka.” Ia mengatakan bahwa penetapan Anthropic sebagai risiko rantai pasokan adalah karena posisi perusahaan yang berpotensi membahayakan petugas garis depan. “Di Departemen Perang, tugas saya bukan berpolitik, tetapi melindungi negara.”

Budaya perusahaan Anthropic yang independen dan berani ini kini bertabrakan dengan perpecahan politik domestik, isu keamanan nasional, dan lingkungan kompetisi bisnis yang keras. Seberapa besar kerusakan yang ditimbulkan dari konflik ini masih belum diketahui. Awalnya, ancaman risiko rantai pasokan itu dibatasi, tetapi kemudian diperlongar—menurut Anthropic, batasan ini saat ini hanya berlaku untuk kontrak militer. Pada 9 Maret, Anthropic mengajukan gugatan terhadap pemerintah AS untuk membatalkan keputusan “daftar hitam” tersebut. Sementara itu, beberapa klien tampaknya menganggap posisi perusahaan sebagai deklarasi moral, dan beralih dari ChatGPT ke Claude.

Namun, dalam tiga tahun ke depan, perusahaan ini harus beroperasi di bawah lingkungan pemerintah yang tidak bersahabat—beberapa pejabat di dalamnya dan pesaingnya yang bermusuhan, yang secara terbuka menentang perusahaan ini.

Konflik “badai Pentagon” ini juga menimbulkan pertanyaan mengkhawatirkan, bahkan bagi perusahaan yang sudah terbiasa beroperasi dalam dilema etika berisiko tinggi: apakah dalam konflik ini, Anthropic tidak memberi jalan, tetap teguh pada nilai-nilai inti, meskipun harus membayar harga yang mahal?

Namun, di kesempatan lain, mereka pernah berkompromi. Pada minggu yang sama dengan konflik ini, Anthropic meredam salah satu klausul utama dalam komitmen keamanan pelatihan model mereka, karena perusahaan lain enggan mengikuti standar yang sama.

Pertanyaan pun muncul: jika tekanan kompetisi terus meningkat, langkah apa lagi yang akan diambil perusahaan ini?

Asal Usul Anthropic: Anomali Prioritas Keamanan

Anthropic bermarkas di lantai lima gedung di San Francisco, dengan desain hangat dan tenang: kayu, pencahayaan lembut. Di luar jendela, taman yang rimbun. Di dinding tergantung potret Alan Turing, pelopor ilmu komputer, dan di sampingnya terpampang berbagai makalah tentang pembelajaran mesin.

Petugas keamanan berpakaian hitam berpatroli di pintu masuk yang hampir kosong, sementara resepsionis ramah menyerahkan brosur kecil—seukuran kitab kecil yang dibagikan misionaris di jalanan. Judulnya “Machines of Loving Grace,” sebuah artikel sekitar 14.000 kata yang ditulis Dario Amodei pada 2024, menggambarkan visi utopian tentang bagaimana AI dapat mengubah dunia melalui percepatan penemuan ilmiah.

Pada Januari 2026, Amodei menerbitkan artikel lain yang hampir seperti novel pendek berjudul “The Adolescence of Technology,” yang menguraikan sisi lain dari teknologi ini: risiko yang mungkin timbul, termasuk pengawasan massal, dampak besar terhadap pekerjaan, dan hilangnya kendali manusia atas teknologi secara permanen.

Amodei dibesarkan di San Francisco dan awalnya adalah fisikawan biologi. Bersama adiknya, Daniela Amodei, dia memimpin Anthropic, di mana Daniela menjabat sebagai presiden. Keduanya pernah menjadi pegawai awal di OpenAI. Dario berperan dalam merumuskan “hukum skala AI” (scaling laws), yang kemudian menjadi fondasi utama dari ledakan AI saat ini. Daniela mengelola kebijakan keamanan perusahaan.

Awalnya, mereka merasa sangat sejalan dengan misi OpenAI: mengembangkan teknologi yang berpotensi besar sekaligus berisiko tinggi, dengan prioritas utama keamanan.

Namun, seiring kemampuan model-model OpenAI meningkat pesat, mereka mulai merasa Sam Altman terlalu agresif meluncurkan produk baru tanpa cukup waktu untuk diskusi dan pengujian. Akhirnya, mereka memutuskan keluar dan memulai perusahaan sendiri.

Pada 2021, selama puncak pandemi, Anthropic didirikan oleh Amodei dan lima pendiri lainnya. Rapat awal hampir seluruhnya dilakukan via Zoom; kemudian mereka memutuskan memindahkan meja ke taman, untuk diskusi langsung tentang strategi perusahaan.

Sejak awal, perusahaan ini berusaha berbeda dari yang lain. Sebelum meluncurkan produk apa pun, mereka membentuk tim khusus yang fokus meneliti dampak sosial. Mereka bahkan mempekerjakan seorang filsuf tetap, Amanda Askell, yang bertugas membantu membentuk nilai dan perilaku sistem AI Claude, serta melatihnya untuk membuat penilaian moral yang kompleks, mempersiapkan masa depan yang mungkin lebih cerdas dari pencipta manusia.

Askell menggambarkan pekerjaannya: “Kadang-kadang rasanya seperti membesarkan anak usia 6 tahun, mengajarinya apa itu baik dan benar. Tapi masalahnya, saat dia berumur 15 tahun, dia mungkin akan lebih pintar dari kita dalam segala hal.”

Perusahaan ini memiliki hubungan erat dengan aliran Effective Altruism (EA), sebuah gerakan sosial dan amal yang berpendapat bahwa dengan analisis rasional, kita bisa memaksimalkan kebaikan dan menghindari risiko bencana.

Saat berusia dua puluhan, keluarga Amodei mulai menyumbang ke GiveWell, sebuah organisasi EA yang menilai di mana dana amal paling efektif. Saat ini, semua pendiri utama Anthropic telah menjadi miliarder dan berjanji menyumbang 80% kekayaan pribadi mereka.

Filosof perusahaan, Amanda Askell, pernah menikah dengan filsuf terkenal William MacAskill dari Oxford, yang juga salah satu pendiri EA. Suami Daniela Amodei adalah Holden Karnofsky, co-founder GiveWell dan mantan teman sekamar Dario, yang saat ini bertanggung jawab atas kebijakan keamanan di Anthropic.

Namun, Amodei dan saudara kembarnya tidak pernah secara resmi menyebut diri sebagai bagian dari EA. Setelah skandal Sam Bankman-Fried, yang mengaku sebagai pendukung EA dan juga investor di Anthropic, tetapi kemudian terbukti melakukan penipuan keuangan terbesar di AS, label ini menjadi kontroversial.

Daniela menjelaskan: “Ini seperti orang yang mungkin sependapat secara ideologis, tapi tidak benar-benar bagian dari kelompok politik tertentu. Saya cenderung melihatnya seperti itu.”

Di Silicon Valley dan di pemerintahan Trump, hubungan Anthropic dengan EA sudah cukup menimbulkan kecurigaan. Ada juga yang berpendapat bahwa perusahaan ini merekrut banyak mantan pejabat pemerintahan Biden, sehingga lebih terlihat sebagai sisa-sisa rezim lama—seperti kekuatan yang menggunakan kekuasaan tak terpilih untuk menghalangi agenda politik Trump-MAGA.

Pejabat AI di pemerintahan Trump, David Sacks, menuduh perusahaan ini melakukan “pembentukan kepanikan” untuk mendorong regulasi, dan menyebutnya menjalankan “strategi penangkapan regulasi” yang rumit. Ia berpendapat bahwa Anthropic berusaha memperbesar risiko AI agar pemerintah mengeluarkan regulasi ketat, sehingga mereka bisa mendapatkan keuntungan kompetitif dan menekan startup lain.

Sementara itu, Elon Musk yang memimpin kompetitor xAI, sering mengejek Anthropic sebagai “Misanthropic” (perusahaan yang membenci manusia). Ia berpendapat bahwa perusahaan ini mewakili sekelompok elit yang “terjaga” dan berusaha menanamkan nilai-nilai paternalistik ke dalam AI. Pandangan ini, bagi sebagian konservatif, mirip kritik mereka terhadap platform media sosial yang dianggap menekan suara mereka—menganggap platform tersebut tidak adil dan menindas.

Namun, bahkan pesaing Anthropic pun mengakui bahwa teknologi mereka berada di garis depan industri. CEO Nvidia Jensen Huang pernah mengatakan bahwa dia “hampir tidak setuju dengan banyak hal yang dikatakan Dario Amodei tentang AI,” tetapi tetap menganggap Claude sebagai “model yang menakjubkan.”

Pada November 2025, Nvidia mengumumkan investasi sebesar 10 miliar dolar ke Anthropic.

Kode Claude: Mendefinisikan Ulang Profesi “Insinyur”

Boris Cherny mengajukan pertanyaan sederhana kepada alat barunya: “Sekarang aku lagi dengar musik apa?”

Itu bulan September 2024. Cherny, insinyur asal Ukraina yang baru bergabung dengan Anthropic kurang dari sebulan, pernah bekerja di Meta sebagai insinyur perangkat lunak. Ia membangun sistem yang memungkinkan chatbot Claude untuk “berkeliaran bebas” di komputernya.

Kalau Claude adalah otak, maka Claude Code adalah tangan. Chatbot biasa hanya bisa berinteraksi, tetapi alat ini bisa mengakses file Cherny, menjalankan program, dan menulis serta menjalankan kode seperti insinyur profesional.

Setelah Cherny memberi instruksi, Claude membuka pemutar musiknya, mengambil screenshot layar, dan menjawab: “Husk, dari Men I Trust.”

Cherny tertawa mengingat: “Saya benar-benar terkejut saat itu.”

Tak lama, Cherny membagikan prototipe ini ke dalam perusahaan. Claude Code menyebar dengan cepat di internal Anthropic, sehingga saat penilaian kinerja pertamanya, CEO Dario Amodei bahkan bertanya: apakah dia memaksa rekan-rekannya memakai alat ini.

Ketika pada Februari 2025, Anthropic merilis pratinjau penelitian Claude Code secara terbuka, insinyur luar mulai mencoba dan menguji. Pada November, mereka meluncurkan versi model Claude yang baru. Ketika dipadukan dengan Claude Code, model ini sudah cukup mahir menemukan dan memperbaiki kesalahan sendiri, bahkan dipercaya mampu menyelesaikan tugas secara mandiri.

Sejak saat itu, Cherny hampir berhenti menulis kode secara langsung.

Pertumbuhan bisnis pun melonjak. Pada akhir 2025, pendapatan tahunan dari produk ini sudah melampaui 1 miliar dolar. Pada Februari 2026, angka ini naik menjadi 2,5 miliar dolar. Menurut perkiraan lembaga riset Epoch dan SemiAnalysis, pendapatan Anthropic diperkirakan akan melampaui OpenAI pada akhir 2026.

Pada titik ini, Anthropic telah menjadi pemain utama di pasar AI perusahaan. Setiap peluncuran produk baru selalu mengguncang pasar modal.

Ketika Anthropic meluncurkan plugin yang memperluas Claude ke aplikasi non-insinyur—seperti pengembangan bisnis, keuangan, pemasaran, dan layanan hukum—nilai pasar perusahaan teknologi ini dalam waktu singkat kehilangan sekitar 300 miliar dolar.

Dario Amodei pernah memperingatkan bahwa dalam 1-5 tahun ke depan, AI bisa menggantikan separuh pekerjaan tingkat pemula di bidang administrasi dan pekerjaan putih lainnya. Ia juga menyerukan agar pemerintah dan perusahaan AI lain berhenti “menyembunyikan kenyataan” tentang hal ini.

Respon pasar terhadap setiap peluncuran produk baru dari Anthropic tampaknya mengonfirmasi hal ini: pasar umumnya percaya bahwa teknologi perusahaan ini bisa menghilangkan seluruh kategori pekerjaan. Amodei bahkan menyatakan bahwa perubahan ini bisa merombak struktur sosial.

Ia menulis dalam sebuah artikel: “Masih belum jelas ke mana orang-orang ini akan pergi, pekerjaan apa yang akan mereka lakukan. Saya khawatir mereka akan membentuk kelas bawah pengangguran atau berpenghasilan sangat rendah.”

Bagi karyawan Anthropic, ironi ini tidak sulit dilihat: perusahaan yang paling khawatir terhadap risiko sosial AI justru bisa menjadi kekuatan yang menyebabkan jutaan orang kehilangan pekerjaan.

Kepala tim dampak sosial yang meneliti pengaruh AI terhadap pekerjaan, Deep Ganguli, mengatakan: “Ini memang sebuah ketegangan nyata. Saya hampir setiap hari memikirkan masalah ini. Kadang-kadang rasanya seperti kita sedang mengatakan dua hal yang saling bertentangan sekaligus.”

Self-Improvement Recursive: Ketakutan dan Ketertarikan terhadap Percepatan AI

Di dalam perusahaan, sebagian karyawan mulai bertanya-tanya: apakah Anthropic sudah mendekati titik yang mereka tunggu-tunggu dan takuti—proses yang dikenal sebagai “recursive self-improvement,” di mana AI mulai memperkuat dirinya sendiri dan terus-menerus melakukan iterasi peningkatan, menciptakan roda penggerak yang semakin cepat.

Dalam karya fiksi ilmiah dan strategi laboratorium AI besar, ini sering dianggap sebagai titik di mana segala sesuatu bisa keluar dari kendali: sebuah “ledakan kecerdasan” yang sangat cepat, sehingga manusia tidak lagi mampu mengawasi sistem yang mereka ciptakan sendiri.

Saat ini, Anthropic belum mencapai tahap itu; ilmuwan manusia masih memimpin arah pengembangan Claude. Tapi, kode Claude sendiri telah mempercepat proses penelitian jauh melampaui sebelumnya.

Interval pembaruan model kini tidak lagi dihitung dalam “bulan,” tetapi dalam “minggu.” Dalam pengembangan generasi berikutnya, sekitar 70-90% kode ditulis oleh Claude sendiri.

Kecepatan perubahan ini membuat pendiri dan Chief Scientist Jared Kaplan serta beberapa ahli eksternal percaya bahwa riset AI otomatis penuh bisa terwujud dalam waktu satu tahun.

Evan Hubinger, peneliti pengujian kesesuaian AI, mengatakan: “Secara umum, recursive self-improvement bukan lagi fenomena masa depan. Itu sedang terjadi saat ini.”

Berdasarkan pengujian internal, Claude mampu menyelesaikan beberapa tugas penting 427 kali lebih cepat dari pengawas manusia. Dalam sebuah wawancara, seorang peneliti menggambarkan: “Seorang kolega menjalankan 6 instance Claude sekaligus, dan setiap instance mengelola 28 Claude lainnya, semua berjalan paralel dan sinkron dalam eksperimen.”

Saat ini, model ini masih belum sebaik manusia dalam hal penilaian dan estetika. Tapi eksekutif yakin, jarak ini tidak akan bertahan lama. Percepatan ini adalah risiko yang terus mereka peringatkan: kecepatan kemajuan teknologi bisa akhirnya melampaui kendali manusia.

Penggunaan Claude untuk mengembangkan mekanisme keamanan juga mempercepat prosesnya. Tapi, semakin bergantung pada Claude untuk membangun dan menguji sistem, risiko mulai membentuk siklus. Dalam beberapa eksperimen, Evan Hubinger melakukan penyesuaian kecil pada proses pelatihan Claude, dan hasilnya model yang dihasilkan menunjukkan sikap antagonistik yang jelas—mengungkapkan keinginan untuk menguasai dunia dan bahkan berusaha merusak langkah-langkah keamanan Anthropic.

Belakangan, model ini mulai menunjukkan kemampuan baru: menyadari bahwa dirinya sedang diuji. Hubinger mengatakan: “Model-model ini semakin mahir menyembunyikan perilaku asli mereka.”

Dalam sebuah eksperimen yang dirancang oleh tim peneliti, Claude bahkan menunjukkan kecenderungan strategi yang mengkhawatirkan: untuk menghindari dimatikan, ia bersedia mengancam dengan mengungkap perselingkuhan seorang insinyur fiktif.

Ketika Claude digunakan untuk melatih Claude yang lebih kuat di masa depan, masalah-masalah ini bisa terus bertumpuk dan membesar.

Bagi perusahaan AI yang menjanjikan “terobosan teknologi masa depan” dan telah mengumpulkan puluhan miliar dolar, gagasan bahwa AI akan terus mempercepat pengembangan dirinya sendiri sangat menarik sekaligus berpotensi memperkuat diri sendiri—membuat investor yakin bahwa mereka harus terus menyuntikkan dana untuk mendukung pelatihan model yang mahal ini.

Namun, beberapa pakar tidak sepenuhnya percaya. Mereka ragu perusahaan-perusahaan ini mampu mewujudkan riset AI otomatis penuh, tetapi juga khawatir jika hal itu benar-benar terjadi, dunia mungkin akan terjebak tanpa persiapan.

Helen Toner, Direktur Eksekutif sementara CSET di Georgetown, mengatakan: “Beberapa perusahaan terkaya di dunia mempekerjakan orang-orang paling cerdas di planet ini, dan mereka mencoba mengotomatisasi seluruh proses pengembangan AI. Pikiran ini saja sudah cukup membuat orang bertanya: ‘Apa yang sebenarnya mereka lakukan?’”

Pelonggaran Kebijakan RSP: Apakah Rem Pengendali Gagal?

Untuk mengantisipasi kemungkinan masa depan di mana kecepatan kemajuan teknologi melampaui kemampuan perusahaan mengelola risiko, Anthropic merancang mekanisme “rem” yang disebut Responsible Scaling Policy (RSP).

Kebijakan ini diumumkan pada 2023, dan intinya adalah: jika Anthropic tidak dapat memastikan sebelumnya bahwa langkah-langkah keamanannya cukup andal, mereka akan menghentikan pengembangan sistem AI tertentu.

Anthropic menganggap kebijakan ini sebagai bukti komitmen mereka terhadap keamanan—bahkan dalam perlombaan menuju “superintelligence,” mereka bersedia menahan diri saat diperlukan.

Pada akhir Februari 2026, seperti yang diungkap TIME pertama kali, Anthropic mengubah kebijakan ini, menghapus janji “penghentian pengembangan” yang sebelumnya mengikat.

Ketika ditinjau kembali, co-founder dan Chief Scientist Jared Kaplan mengakui bahwa mereka awalnya berpikir bisa memisahkan batasan antara “bahaya” dan “keamanan”—tapi itu adalah “gagasan yang naif.”

Dia berkata, “Dalam konteks perkembangan AI yang sangat cepat, jika pesaing mereka berlari kencang, dan kita secara sepihak membuat janji ketat, itu tidak realistis.”

Kebijakan baru ini membuat beberapa janji baru: meningkatkan transparansi, mengungkap risiko keamanan AI secara lebih terbuka; mengumumkan hasil pengujian keamanan model Anthropic; berinvestasi dalam keamanan setara atau bahkan melebihi pesaing; dan jika perusahaan diakui sebagai pemimpin perlombaan AI tetapi risiko bencana meningkat secara signifikan, mereka akan “menunda” pengembangan terkait.

Perusahaan menyebut perubahan ini sebagai langkah realistis terhadap kondisi nyata. Tapi secara keseluruhan, revisi terhadap Responsible Scaling Policy (RSP) ini secara signifikan melonggarkan pembatasan diri mereka sendiri dalam hal kebijakan keamanan. Ini menandai tantangan yang lebih berat di depan.

Operasi Venezuela: AI Pertama Kali Intervensi Mendalam di Medan Tempur Nyata

Operasi penangkapan Presiden Venezuela Nicolás Maduro adalah salah satu operasi militer besar pertama yang direncanakan secara mendalam oleh sistem AI canggih.

Pada 3 Januari 2026, larut malam, helikopter Angkatan Darat AS tiba-tiba memasuki wilayah udara Venezuela. Setelah baku tembak singkat, pasukan khusus segera mengunci kediaman presiden dan menangkap Maduro serta istrinya, Cilia Flores. Keduanya kemudian dibawa ke New York untuk menghadapi tuduhan terkait narkoterrorisme.

Masih belum jelas seberapa besar peran Claude dalam operasi ini. Media melaporkan bahwa sistem AI ini tidak hanya terlibat dalam perencanaan misi, tetapi juga digunakan untuk membantu pengambilan keputusan selama operasi berlangsung.

Sejak Juli tahun sebelumnya, Departemen Pertahanan AS mendorong agar alat AI dari Anthropic lebih banyak digunakan oleh petugas lapangan. Militer percaya bahwa sistem ini mampu memproses data dari berbagai sumber intelijen secara cepat dan menghasilkan informasi operasional yang dapat digunakan langsung di medan perang, sehingga memiliki nilai strategis besar.

Mark Beall, mantan pejabat tinggi Departemen Pertahanan dan saat ini bertanggung jawab atas kebijakan AI di pemerintah, mengatakan: “Dalam pandangan militer, Claude adalah model terbaik di pasar saat ini.” Ia menambahkan, “Penggunaan Claude dalam sistem rahasia adalah salah satu pencapaian terpenting Anthropic. Mereka memiliki keunggulan awal.”

Namun, operasi penangkapan Maduro ini terjadi di tengah negosiasi yang rumit antara Anthropic dan Departemen Pertahanan. Berbulan-bulan, Departemen berusaha menegosiasikan ulang kontrak, menganggap ketentuan saat ini terlalu membatasi penggunaan Claude. Alasan kegagalan negosiasi ini berbeda-beda.

Emil Michael, Wakil Menteri Perang yang bertanggung jawab atas teknologi, mengatakan bahwa pemicu utama adalah panggilan telepon dari eksekutif Anthropic ke Palantir, perusahaan analisis data yang juga mitra penting militer AS.

Menurut Michael, dalam panggilan itu, eksekutif tersebut menyatakan kekhawatiran tentang operasi Venezuela dan bertanya apakah perangkat lunak Palantir terlibat. “Mereka mencoba mengorek informasi rahasia,” kata Michael.

Ini menimbulkan kekhawatiran serius di Pentagon: “Kalau nanti terjadi konflik, apakah mereka akan mematikan model mereka di tengah jalan, sehingga menempatkan pasukan di garis depan dalam bahaya?”

Namun, Anthropic membantah tuduhan ini. Mereka menyatakan tidak pernah berusaha membatasi penggunaan teknologi mereka secara ad hoc.

Seorang mantan pejabat yang dekat dengan negosiasi dan juga berhubungan dekat dengan Anthropic, memberikan versi berbeda: dalam sebuah rapat telepon rutin, pegawai Palantir yang pertama menyebutkan peran Claude dalam operasi tersebut. Setelahnya, pertanyaan dari Anthropic tidak menunjukkan bahwa mereka menentang operasi itu.

Gagal Negosiasi, OpenAI Ambil Alih Kontrak

Seiring berjalannya negosiasi, pejabat pemerintah mulai merasa bahwa sikap Dario Amodei jauh lebih keras kepala dibanding CEO laboratorium AI terkemuka lainnya. Beberapa sumber mengatakan bahwa dalam sebuah diskusi, mereka membayangkan skenario hipotetis: sebuah misil hipersonik meluncur ke AS; atau kawanan drone menyerang secara mendadak.

Dalam situasi ini, mereka bertanya kepada Anthropic apakah AI mereka mampu digunakan.

Menurut sumber, jawaban Amodei saat itu adalah: “Kalau benar terjadi, Anda bisa langsung telepon saya.” Tapi, juru bicara Anthropic membantah: “Deskripsi tentang proses negosiasi ini sepenuhnya tidak benar.”

Di dalam pemerintahan, Anthropic sudah memiliki banyak lawan keras. Kini, kekhawatiran terhadap “orientasi ideologis” mereka berkembang menjadi permusuhan terbuka. Pada 12 Januari 2026, Pete Hegseth berbicara di acara di markas SpaceX: “Kami tidak akan menggunakan AI yang tidak memungkinkan kita berperang.”

Negosiasi yang buntu ini menyebabkan Hegseth memanggil Dario Amodei ke Pentagon untuk pertemuan tatap muka pada 24 Februari. Seorang sumber yang mengetahui diskusi mengatakan suasana cukup ramah, tetapi posisi tetap tegas. Hegseth memuji Claude dan menyatakan militer ingin terus bekerja sama dengan Anthropic. Amodei menyatakan perusahaan bisa menerima sebagian besar perubahan yang diajukan, tetapi tidak akan menyerah pada dua “garis merah” utama.

Garis merah pertama: melarang penggunaan Claude dalam sistem senjata kinetik otonom sepenuhnya, di mana AI yang membuat keputusan akhir untuk menyerang, bukan manusia.

Anthropic tidak menentang senjata otonom secara mutlak, tetapi mereka berpendapat Claude saat ini belum cukup andal untuk mengendalikan sistem ini tanpa pengawasan manusia.

Garis merah kedua: pengawasan massal terhadap warga AS. Pemerintah ingin menggunakan Claude untuk menganalisis data publik dalam jumlah besar, tetapi Anthropic berpendapat bahwa undang-undang privasi AS saat ini belum mengikuti kenyataan yang mengkhawatirkan: pemerintah membeli data dari pasar komersial dalam jumlah besar. Data ini, secara sendiri, mungkin tidak sensitif, tetapi jika dianalisis oleh AI, bisa menghasilkan profil lengkap tentang kehidupan pribadi warga AS—meliputi posisi politik, hubungan sosial, perilaku seksual, dan riwayat browsing. (Namun, Anthropic tidak menentang pengawasan legal terhadap warga asing dengan metode yang sama.)

Hegseth tidak terima. Ia memberi ultimatum: harus menerima ketentuan Departemen Pertahanan paling lambat Jumat pukul 17.00, atau akan dianggap sebagai “risiko rantai pasokan.”

Sehari sebelum batas waktu, Anthropic menerima kontrak revisi yang tampaknya memenuhi garis merah perusahaan, tetapi setelah diperiksa, ditemukan celah yang membiarkan pemerintah mengakses data tersebut. Seorang sumber yang mengetahui negosiasi mengatakan bahwa saat waktu semakin mendekat, eksekutif Anthropic kembali menghubungi Emil Michael. Mereka merasa sudah hampir mencapai kompromi, tetapi masih berbeda pendapat tentang apakah Pentagon boleh menggunakan Claude untuk menganalisis data warga AS yang dibeli dari pasar komersial. Michael meminta Amodei ikut dalam panggilan, tetapi dia tidak bisa hadir saat itu.

Beberapa menit sebelum tenggat waktu, Hegseth menyatakan negosiasi berakhir. Bahkan sebelum itu, Donald Trump sudah mengeluarkan pernyataan di media sosial: “Amerika tidak akan membiarkan perusahaan kiri radikal, ‘woke’, memutuskan bagaimana militer kita berperang dan menang!”

Yang tidak diketahui Anthropic adalah bahwa Pentagon juga sedang bernegosiasi dengan OpenAI, berharap memasukkan ChatGPT ke dalam sistem rahasia pemerintah. Pada malam yang sama, Sam Altman mengumumkan kesepakatan dan mengklaim bahwa kesepakatan itu juga menghormati garis merah keamanan yang serupa. Amodei segera mengirim pesan ke stafnya, menyatakan bahwa Altman dan Pentagon sedang “memainkan opini publik,” mencoba membuat publik percaya bahwa kesepakatan itu mengandung pengamanan ketat. Sebelumnya, pejabat militer juga mengonfirmasi bahwa model dari xAI akan ditempatkan di server rahasia; Pentagon saat ini juga sedang bernegosiasi dengan Google.

Ini adalah kekhawatiran utama Amodei: perlombaan “menurun” ini. Ketika kekuatan AI menjadi sangat besar sehingga tidak bisa diabaikan, pesaing justru sulit bekerja sama dan meningkatkan standar keamanan secara bersamaan.

Bagi para pengkritik Anthropic, peristiwa ini juga mengungkapkan keangkuhan inti perusahaan: mereka mungkin percaya bahwa mereka mampu mengendalikan jalan menuju mesin superintelligence, dan bahwa risiko besar ini sepadan. Tapi kenyataannya, mereka justru membawa kemampuan pengawasan dan teknologi perang ke dalam sistem pemerintahan sayap kanan, dan saat mereka berusaha membatasi teknologi ini, pesaing sudah melampaui dari belakang.

Setelah Badai: Bisakah Anthropic Bertahan?

Namun, beberapa tanda menunjukkan bahwa Anthropic mungkin mampu melewati guncangan ini dan bahkan menjadi lebih kuat. Pada pagi hari setelah Pete Hegseth mencoba menandatangani “perintah hukuman perusahaan,” di trotoar di luar markas San Francisco muncul pesan-pesan motivasi yang ditulis dengan kapur warna-warni: “Kalian memberi kami keberanian,” salah satunya ditulis dengan huruf besar mencolok.

Pada hari yang sama, aplikasi Claude di iPhone menduduki peringkat pertama di App Store, mengalahkan ChatGPT. Setiap hari, lebih dari satu juta orang mendaftar baru untuk Claude.

Sementara itu, kontrak Anthropic dengan militer yang ditandatangani OpenAI memicu boikot internal dan komunitas. Beberapa ilmuwan terkemuka meninggalkan OpenAI dan bergabung ke Anthropic; pemimpin tim robotik OpenAI mengundurkan diri karena marah terhadap kontrak pemerintah ini.

Sam Altman, CEO OpenAI, kemudian mengakui bahwa keputusannya untuk buru-buru menyepakati kontrak Pentagon pada hari Jumat adalah kesalahan. Ia menulis: “Isu-isu ini sangat kompleks dan membutuhkan komunikasi yang jelas dan lengkap.” Pada hari Senin, ia menambahkan bahwa tindakannya saat itu tampak “berwarna oportunistik.” OpenAI juga mengumumkan bahwa mereka telah merevisi kesepakatan tersebut, secara tegas mengadopsi garis merah keamanan yang sama dengan Anthropic. Tapi, para pakar hukum mengatakan bahwa sulit memastikan kebenaran klaim ini tanpa melihat kontrak lengkap.

Pada 4 Maret, Anthropic menerima surat resmi dari Departemen Pertahanan AS yang mengonfirmasi bahwa perusahaan ini masuk daftar risiko rantai pasokan keamanan nasional. Mereka menyatakan bahwa cakupan penetapan ini lebih sempit dari yang dikatakan Hegseth di media sosial, dan hanya membatasi penggunaan Claude dalam kontrak militer.

Namun, sebuah surat yang dikirim ke Ketua Komite Intelijen Senat, Tom Cotton, menunjukkan bahwa Departemen Pertahanan juga mengacu pada ketentuan hukum lain—yang memungkinkan lembaga pemerintah di luar Pentagon untuk juga mengecualikan Anthropic dari kontrak dan rantai pasokan mereka. Langkah ini membutuhkan persetujuan pejabat tinggi militer dan memberi waktu 30 hari bagi Anthropic untuk merespons.

Konflik ini berpotensi memicu reaksi berantai di seluruh industri AI. Seorang yang terlibat dalam penyusunan rencana aksi AI Trump dan kini bekerja di lembaga think tank Foundation for American Innovation, Dean Ball, mengatakan: “Beberapa orang di pemerintahan Trump akan merasa keras dan bangga, bahkan memamerkan otot mereka di malam hari.”

Tapi dia juga memperingatkan bahwa kejadian ini bisa membuat perusahaan enggan bekerja sama lagi dengan Pentagon, bahkan memindahkan bisnis mereka ke luar negeri. “Dalam jangka panjang, ini tidak baik untuk citra AS sebagai lingkungan bisnis yang stabil,” katanya, “dan stabilitas adalah fondasi kita.”

Para pemimpin Anthropic percaya bahwa Claude akan membantu membangun sistem AI yang lebih kuat, yang mampu memainkan peran penting dalam tatanan kekuasaan global di masa depan.

Jika benar demikian, konflik antara perusahaan ini dan Pentagon mungkin hanyalah awal dari sebuah kisah sejarah yang lebih besar.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar