DeepSeek meluncurkan V4 versi pratinjau sumber terbuka, penilaian teknis 3206 melampaui GPT-5.4

MarketWhisper

DeepSeek V4開源預覽版

DeepSeek secara resmi meluncurkan rangkaian versi pratinjau V4 pada 24 April, dengan bobot model yang telah disinkronkan ke Hugging Face dan ModelScope, serta dirilis sebagai open-source di bawah lisensi MIT. Menurut laporan teknis DeepSeek V4, V4-Pro-Max (mode kekuatan inferensi maksimum) memperoleh 3206 poin pada tolok ukur Codeforces, melampaui GPT-5.4.

Spesifikasi arsitektur dua model MoE

Menurut laporan teknis DeepSeek V4, rangkaian V4 mencakup dua model campuran ahli (MoE):

V4-Pro: total parameter 1.6T, aktivasi per token 49B, mendukung konteks 1M token

V4-Flash: total parameter 284B, aktivasi per token 13B, juga mendukung konteks 1M token

Menurut laporan teknis, pada konteks 1M, FLOPs inferensi per token V4-Pro hanya 27% dari V3.2, cache KV turun menjadi 10% dari V3.2; terutama berkat peningkatan arsitektur dari mekanisme perhatian campuran (CSA perhatian jarang terkompresi + HCA perhatian terkompresi berat). Skala data praplatih melampaui 32T token; pengoptimal pelatihan diperbarui menjadi Muon.

Metodologi pasca-pelatihan: distilasi strategi online menggantikan reinforcement learning campuran

Menurut laporan teknis DeepSeek V4, pembaruan inti pasca-pelatihan V4 adalah menggantikan sepenuhnya tahap mixed RL (reinforcement learning campuran) V3.2 dengan distilasi strategi online (On-Policy Distillation, OPD). Proses baru dibagi menjadi dua langkah: pertama, melatih para pakar bidang secara terpisah untuk bidang seperti matematika, kode, Agent, dan mengikuti instruksi (SFT + reinforcement learning GRPO); kemudian, men-disti lasi kemampuan dari belasan ahli tersebut ke dalam satu model terpadu menggunakan multi-guru OPD, dengan penyelarasan melalui logit untuk menghindari konflik kemampuan yang umum terjadi pada metode tradisional.

Laporan ini juga memperkenalkan model hadiah generatif (Generative Reward Model, GRM), untuk tugas yang sulit diverifikasi dengan aturan, dengan melatih model menggunakan sejumlah kecil data anotasi manusia yang beragam, sehingga model dapat menjalankan fungsi generasi sekaligus evaluasi.

Hasil uji tolok ukur: unggul dalam pengkodean, namun masih ada kesenjangan pada penalaran pengetahuan

Menurut laporan teknis DeepSeek V4, hasil perbandingan V4-Pro-Max dengan Opus 4.6 Max, GPT-5.4 xHigh, dan Gemini 3.1 Pro High (tidak termasuk GPT-5.5 dan Opus 4.7 yang dirilis baru-baru ini):

Codeforces: 3206 (GPT-5.4:3168 / Gemini 3.1 Pro:3052)→ Tertinggi di seluruh ajang

LiveCodeBench:93.5 → Tertinggi di seluruh ajang

SWE Verified:80.6, tertinggal 0.2 poin persentase dari Opus 4.6 yang 80.8

GPQA Diamond:90.1, tertinggal dari Gemini 3.1 Pro yang 94.3

SimpleQA-Verified:57.9, tertinggal dari Gemini 3.1 Pro yang 75.6

HLE:37.7, tertinggal dari Gemini 3.1 Pro yang 44.4

Laporan teknis tersebut sekaligus menyatakan bahwa perbandingan di atas tidak mencakup GPT-5.5 dan Opus 4.7 yang dirilis paling baru; perbedaan antara V4 dan model generasi terbaru yang tertutup masih perlu diverifikasi melalui evaluasi pihak ketiga.

FAQ (Pertanyaan yang Sering Diajukan)

Apa ketentuan lisensi open-source untuk pratinjau DeepSeek V4, dan di mana mendapatkannya?

Berdasarkan pengumuman resmi DeepSeek pada 24 April, rangkaian V4 dirilis sebagai open-source di bawah lisensi MIT, bobot model telah tersedia di Hugging Face dan ModelScope, serta dapat digunakan untuk keperluan komersial dan akademik.

Apa perbedaan skala parameter DeepSeek V4-Pro dan V4-Flash?

Menurut laporan teknis DeepSeek V4, total parameter V4-Pro adalah 1.6T, dengan aktivasi per token 49B; total parameter V4-Flash adalah 284B, dengan aktivasi per token 13B; kedua model mendukung konteks 1M token.

Apa hasil perbandingan tolok ukur DeepSeek V4-Pro-Max dengan GPT-5.4 dan Gemini 3.1 Pro?

Menurut laporan teknis DeepSeek V4, V4-Pro-Max melampaui GPT-5.4 dan Gemini 3.1 Pro pada dua tolok ukur Codeforces (3206 poin) dan LiveCodeBench (93.5), namun masih tertinggal pada tolok ukur yang padat pengetahuan (GPQA Diamond, SimpleQA-Verified, HLE) dari Gemini 3.1 Pro; kelompok perbandingan tidak mencakup GPT-5.5 dan Opus 4.7.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Claw Intelligence Bermitra dengan Block Sec Arena untuk Memperkuat Keamanan BNB Chain

Menurut pengumuman resmi Block Sec Arena pada 30 April, Claw Intelligence, platform Web3 berbasis AI yang dibangun di BNB Chain, telah mengumumkan kemitraan strategis dengan Block Sec Arena untuk mengintegrasikan infrastruktur keamanan siber canggih ke dalam ekosistemnya. Kolaborasi ini bertujuan untuk memperkuat p

GateNews1jam yang lalu

NTT Mengumumkan Inisiatif AI x OWN, Berencana Melipatgandakan Tiga Kali Kapasitas Daya Jepang Menjadi 1 GW pada 2033

Pada 27 April, Presiden NTT Akira Shimada mengumumkan inisiatif AI x OWN, upaya perusahaan untuk merombak infrastruktur internet agar dapat digunakan oleh AI secara real-time. NTT berencana untuk melipat tiga kapasitas daya domestiknya dari sekitar 300 MW saat ini menjadi sekitar 1 gigawatt pada tahun fiskal 2033, saat perusahaan telekomunikasi raksasa tersebut

GateNews3jam yang lalu

Platform AI Certifyde Menyelesaikan Putaran Seed senilai 2 juta dolar pada 1 Mei, Didukung oleh CEO Ripple Brad Garlinghouse

Menurut TechfundingNews, platform aplikasi AI Certifyde menyelesaikan putaran pendanaan seed senilai 2 juta dolar AS pada 1 Mei. Para investor termasuk K5 Global, Flamingo Capital, serta investor angel termasuk Honey co-founder George Ruan, Ripple CEO Brad Garlinghouse, dan Nutra co-founder Roland

GateNews3jam yang lalu

Komando Teknologi Pentagon: Anthropic masih masuk daftar hitam, penanganan pengecualian untuk Mythos

Kepala teknologi Kementerian Pertahanan AS (Pentagon technology chief) pada 1 Mei menyampaikan kepada Kongres bahwa, “Anthropic masih berada di daftar hitam, tetapi Mythos Preview adalah isu lain”, sehingga secara resmi mengakui adanya perlakuan berbeda oleh Pentagon terhadap merek utama Anthropic dan model barunya Mythos. Pernyataan ini sejalan dengan temuan Axios pada 19 April bahwa NSA (National Security Agency) sudah benar-benar memakai Mythos untuk menciptakan keterkaitan, sekaligus secara resmi mengukuhkan arah kebijakan “saluran pengecualian Mythos”—yang juga berarti Pentagon sebelumnya pernah berargumen di pengadilan bahwa penggunaan alat Anthropic akan mengancam keamanan nasional, sehingga menimbulkan kontradiksi internal secara argumentasi hukum dengan praktik aktual saat ini. Anthropic vs Pentagon

ChainNewsAbmedia4jam yang lalu

137 Ventures Menutup $700M dalam Dana Baru, AUM Mencapai $15B

Menurut ChainCatcher, 137 Ventures, investor awal di SpaceX, baru-baru ini menyelesaikan penggalangan dana untuk dua dana baru senilai lebih dari 700 juta dolar AS, sehingga aset kelolanya kini melebihi 15 miliar dolar AS. Modal baru ini akan mendukung investasi pada agen AI, robotika, dan pendorong ruang angkasa

GateNews4jam yang lalu

Reddit Melonjak 16% di Tengah Prospek Kuartal II yang Kuat; Apple Menghadapi Kekurangan Mac karena Permintaan AI Melebihi Pasokan

Saham Reddit naik 16% sebelum pasar dibuka pada Jumat setelah perusahaan mengeluarkan panduan pendapatan untuk kuartal mendatang yang lebih tinggi dari perkiraan. Pengunjung aktif harian tumbuh 17% menjadi 126,8 juta, sementara pendapatan rata-rata per pengguna secara global melonjak 44%, didorong oleh AI-powered

GateNews4jam yang lalu
Komentar
0/400
Tidak ada komentar