OpenAI meluncurkan Codex Security pada 6 Maret, memperkenalkan agen keamanan aplikasi berbasis kecerdasan buatan (AI) yang memindai repositori Github untuk kerentanan, hanya beberapa minggu setelah Anthropic meluncurkan alat Claude Code Security yang menjadi pesaingnya—mengubah pertahanan kode berbasis AI menjadi medan perang kompetitif terbaru di industri teknologi.
Peluncuran ini dilakukan di tengah meningkatnya minat terhadap alat AI yang dapat menelusuri proyek perangkat lunak besar lebih cepat daripada tim keamanan manusia. Codex Security dirancang untuk menganalisis repositori, mengidentifikasi kerentanan, memvalidasinya di lingkungan pengujian terisolasi, dan mengusulkan perbaikan yang dapat direview pengembang sebelum diterapkan. Sistem ini membangun konteks dari commit ke commit, memungkinkan AI memahami bagaimana kode berkembang daripada sekadar menandai potongan kode yang terisolasi.
OpenAI menulis:
“Kami memperkenalkan Codex Security. Agen keamanan aplikasi yang membantu Anda mengamankan basis kode dengan menemukan kerentanan, memvalidasinya, dan mengusulkan perbaikan yang dapat Anda tinjau dan patch. Sekarang, tim dapat fokus pada kerentanan yang penting dan mengirim kode lebih cepat.”
OpenAI mengatakan alat ini dibangun di atas ekosistem Codex mereka, asisten rekayasa AI berbasis cloud yang diperkenalkan pada Mei 2025 yang membantu pengembang menulis kode, memperbaiki bug, dan mengusulkan permintaan tarik. Pada Maret 2026, penggunaan Codex telah meningkat menjadi sekitar 1,6 juta pengguna mingguan, menurut perusahaan. Codex Security memperluas kemampuan tersebut ke dalam keamanan aplikasi, sebuah segmen industri yang diperkirakan menghasilkan sekitar $20 miliar per tahun.
Pengumuman OpenAI datang bersamaan dengan peluncuran GPT-5.3 Instant dan GPT-5.4. Langkah ini juga mengikuti debut Claude Code Security dari Anthropic pada 20 Februari, yang memindai seluruh basis kode dan menyarankan patch untuk kerentanan yang terdeteksi. Alat ini dibangun di atas model Claude Opus 4.6, yang berusaha memahami perangkat lunak seperti peneliti keamanan manusia—menganalisis logika bisnis, aliran data, dan interaksi sistem daripada hanya mengandalkan aturan pemindaian statis.
Anthropic mengatakan Claude Code Security telah mengidentifikasi lebih dari 500 kerentanan di berbagai proyek perangkat lunak sumber terbuka, termasuk masalah yang tidak terdeteksi selama bertahun-tahun. Perusahaan saat ini menawarkan fitur ini dalam pratinjau penelitian untuk pelanggan perusahaan dan tim, sementara pengelola sumber terbuka dapat meminta akses cepat secara gratis.
Kedua perusahaan bertaruh bahwa sistem AI yang mampu memahami konteks kode akan mengungguli pemindai kerentanan tradisional, yang sering menghasilkan banyak positif palsu. Untuk mengatasi masalah tersebut, Claude Code Security menggunakan sistem verifikasi multi-tahap yang memeriksa kembali temuan dan memberikan skor tingkat keparahan serta kepercayaan.
Codex Security mengambil pendekatan yang sedikit berbeda. Alih-alih hanya mengandalkan inferensi model, agen ini memvalidasi kerentanan yang dicurigai di dalam lingkungan sandbox sebelum menampilkan hasilnya. OpenAI mengatakan proses ini mengurangi gangguan dan memungkinkan AI memberi peringkat temuan berdasarkan bukti yang dikumpulkan selama pengujian.
“Codex Security dimulai sebagai Aardvark, diluncurkan tahun lalu dalam beta tertutup,” tulis OpenAI di X. Perusahaan menambahkan:
“Sejak saat itu, kami secara signifikan meningkatkan kualitas sinyal, mengurangi gangguan, meningkatkan akurasi tingkat keparahan, dan menurunkan positif palsu, sehingga temuan lebih sesuai dengan risiko dunia nyata.”
Pengembang yang meninjau hasil Codex Security dapat memeriksa data pendukung, melihat perbedaan kode untuk patch yang disarankan, dan mengintegrasikan perbaikan melalui alur kerja Github. Sistem ini juga memungkinkan tim menyesuaikan model ancaman dengan mengatur parameter seperti permukaan serangan, cakupan repositori, dan toleransi risiko.
Meskipun peluncuran Anthropic mengguncang sebagian sektor keamanan siber, kehadiran OpenAI sejauh ini lebih banyak menimbulkan perbincangan daripada kepanikan pasar. Ketika Claude Code Security debut pada Februari, beberapa saham keamanan siber sempat turun antara 5% dan 10%, termasuk perusahaan seperti Crowdstrike dan Palo Alto Networks, sebelum pulih dalam sesi perdagangan berikutnya.
Pada saat itu, analis mengatakan penurunan harga tersebut kemungkinan mencerminkan kekhawatiran tentang apakah alat AI dapat menggantikan bagian dari pasar keamanan aplikasi. Namun, banyak peneliti berpendapat bahwa alat AI lebih cenderung melengkapi platform keamanan yang ada daripada menggantinya secara langsung.
Deteksi kerentanan berbantuan AI telah berkembang pesat dalam dua tahun terakhir, dengan model bahasa besar (LLMs) semakin banyak berpartisipasi dalam tugas penelitian keamanan siber seperti kompetisi Capture-the-Flag dan penemuan kerentanan otomatis. Kemampuan ini dapat membantu pembela mengidentifikasi kelemahan perangkat lunak lebih cepat—namun juga menimbulkan kekhawatiran bahwa penyerang bisa memanfaatkan sistem serupa.
Untuk mengatasi risiko tersebut, OpenAI meluncurkan inisiatif “Trusted Access for Cyber” pada 5 Februari yang memberikan peneliti keamanan yang terverifikasi akses terbatas ke model canggih untuk penelitian pertahanan. Anthropic mengambil pendekatan serupa melalui kemitraan dengan lembaga seperti Pacific Northwest National Laboratory dan program tim merah internal.
Kemunculan agen keamanan AI menandai pergeseran menuju apa yang banyak peneliti sebut sebagai “cybersecurity agenik,” di mana sistem otonom secara terus-menerus menganalisis, menguji, dan memperbaiki kerentanan perangkat lunak. Jika berhasil, alat semacam ini dapat memperpendek waktu antara penemuan kerentanan dan penerapan patch—salah satu kelemahan terbesar dalam keamanan perangkat lunak modern.
Bagi pengembang dan tim keamanan, waktunya sulit diabaikan. AI tidak lagi sekadar menulis kode—sekarang ia juga mengaudit, merusak, dan memperbaikinya, sering dalam alur kerja yang sama.
Dan dengan OpenAI dan Anthropic kini bersaing langsung, gelombang berikutnya dari alat keamanan siber mungkin tidak lagi berupa pemindai tradisional, melainkan agen AI yang tidak pernah tidur, tidak pernah mengeluh, dan, idealnya, menangkap bug sebelum hacker melakukannya.