
DeepSeek secara resmi meluncurkan rangkaian versi pratinjau V4 pada 24 April, dengan bobot model yang telah disinkronkan ke Hugging Face dan ModelScope, serta dirilis sebagai open-source di bawah lisensi MIT. Menurut laporan teknis DeepSeek V4, V4-Pro-Max (mode kekuatan inferensi maksimum) memperoleh 3206 poin pada tolok ukur Codeforces, melampaui GPT-5.4.
Menurut laporan teknis DeepSeek V4, rangkaian V4 mencakup dua model campuran ahli (MoE):
V4-Pro: total parameter 1.6T, aktivasi per token 49B, mendukung konteks 1M token
V4-Flash: total parameter 284B, aktivasi per token 13B, juga mendukung konteks 1M token
Menurut laporan teknis, pada konteks 1M, FLOPs inferensi per token V4-Pro hanya 27% dari V3.2, cache KV turun menjadi 10% dari V3.2; terutama berkat peningkatan arsitektur dari mekanisme perhatian campuran (CSA perhatian jarang terkompresi + HCA perhatian terkompresi berat). Skala data praplatih melampaui 32T token; pengoptimal pelatihan diperbarui menjadi Muon.
Menurut laporan teknis DeepSeek V4, pembaruan inti pasca-pelatihan V4 adalah menggantikan sepenuhnya tahap mixed RL (reinforcement learning campuran) V3.2 dengan distilasi strategi online (On-Policy Distillation, OPD). Proses baru dibagi menjadi dua langkah: pertama, melatih para pakar bidang secara terpisah untuk bidang seperti matematika, kode, Agent, dan mengikuti instruksi (SFT + reinforcement learning GRPO); kemudian, men-disti lasi kemampuan dari belasan ahli tersebut ke dalam satu model terpadu menggunakan multi-guru OPD, dengan penyelarasan melalui logit untuk menghindari konflik kemampuan yang umum terjadi pada metode tradisional.
Laporan ini juga memperkenalkan model hadiah generatif (Generative Reward Model, GRM), untuk tugas yang sulit diverifikasi dengan aturan, dengan melatih model menggunakan sejumlah kecil data anotasi manusia yang beragam, sehingga model dapat menjalankan fungsi generasi sekaligus evaluasi.
Menurut laporan teknis DeepSeek V4, hasil perbandingan V4-Pro-Max dengan Opus 4.6 Max, GPT-5.4 xHigh, dan Gemini 3.1 Pro High (tidak termasuk GPT-5.5 dan Opus 4.7 yang dirilis baru-baru ini):
Codeforces: 3206 (GPT-5.4:3168 / Gemini 3.1 Pro:3052)→ Tertinggi di seluruh ajang
LiveCodeBench:93.5 → Tertinggi di seluruh ajang
SWE Verified:80.6, tertinggal 0.2 poin persentase dari Opus 4.6 yang 80.8
GPQA Diamond:90.1, tertinggal dari Gemini 3.1 Pro yang 94.3
SimpleQA-Verified:57.9, tertinggal dari Gemini 3.1 Pro yang 75.6
HLE:37.7, tertinggal dari Gemini 3.1 Pro yang 44.4
Laporan teknis tersebut sekaligus menyatakan bahwa perbandingan di atas tidak mencakup GPT-5.5 dan Opus 4.7 yang dirilis paling baru; perbedaan antara V4 dan model generasi terbaru yang tertutup masih perlu diverifikasi melalui evaluasi pihak ketiga.
Berdasarkan pengumuman resmi DeepSeek pada 24 April, rangkaian V4 dirilis sebagai open-source di bawah lisensi MIT, bobot model telah tersedia di Hugging Face dan ModelScope, serta dapat digunakan untuk keperluan komersial dan akademik.
Menurut laporan teknis DeepSeek V4, total parameter V4-Pro adalah 1.6T, dengan aktivasi per token 49B; total parameter V4-Flash adalah 284B, dengan aktivasi per token 13B; kedua model mendukung konteks 1M token.
Menurut laporan teknis DeepSeek V4, V4-Pro-Max melampaui GPT-5.4 dan Gemini 3.1 Pro pada dua tolok ukur Codeforces (3206 poin) dan LiveCodeBench (93.5), namun masih tertinggal pada tolok ukur yang padat pengetahuan (GPQA Diamond, SimpleQA-Verified, HLE) dari Gemini 3.1 Pro; kelompok perbandingan tidak mencakup GPT-5.5 dan Opus 4.7.
Artikel Terkait
Claw Intelligence Bermitra dengan Block Sec Arena untuk Memperkuat Keamanan BNB Chain
NTT Mengumumkan Inisiatif AI x OWN, Berencana Melipatgandakan Tiga Kali Kapasitas Daya Jepang Menjadi 1 GW pada 2033
Platform AI Certifyde Menyelesaikan Putaran Seed senilai 2 juta dolar pada 1 Mei, Didukung oleh CEO Ripple Brad Garlinghouse
Komando Teknologi Pentagon: Anthropic masih masuk daftar hitam, penanganan pengecualian untuk Mythos
137 Ventures Menutup $700M dalam Dana Baru, AUM Mencapai $15B
Reddit Melonjak 16% di Tengah Prospek Kuartal II yang Kuat; Apple Menghadapi Kekurangan Mac karena Permintaan AI Melebihi Pasokan