Nvidia 260 Miliar Layout Open Source AI, Nemotron 3 Super Tantang Model China

MarketWhisper

輝達發布Nemotron 3 Super

NVIDIA secara resmi merilis Nemotron 3 Super pada hari Kamis, sebuah model AI dengan bobot terbuka yang memiliki total 120 miliar parameter, yang secara mendalam dioptimalkan untuk agen AI mandiri dan tugas konteks yang sangat panjang. NVIDIA mengumumkan rencana strategis untuk menginvestasikan 26 miliar dolar AS dalam lima tahun ke depan untuk membangun model AI sumber terbuka, sebagai tanggapan langsung terhadap munculnya pesat model sumber terbuka China di pasar global.

Arsitektur Teknologi Nemotron 3 Super: Integrasi Mendalam dari Tiga Komponen Langka

Inti dari desain Nemotron 3 Super adalah menyelesaikan satu masalah mendasar dalam sistem multi-agen—setiap kali memanggil alat, melakukan inferensi, atau memproses fragmen konteks, harus mengulang pengiriman data dalam jumlah besar dari awal, yang menyebabkan biaya melonjak dan model menyimpang dari harapan. NVIDIA mengintegrasikan tiga komponen yang sangat jarang muncul bersama dalam satu arsitektur:

Mamba-2 State Space Layers sebagai pengganti mekanisme perhatian, yang lebih cepat dan lebih efisien memori saat memproses aliran token panjang; lapisan perhatian Transformer untuk memastikan pengambilan informasi yang akurat; dan desain baru “Latent Mixture of Experts” (Latent MoE) yang melakukan kompresi token sebelum routing, memungkinkan model mengaktifkan empat kali lipat jumlah modul ahli dengan biaya komputasi yang sama.

Model ini menggunakan format NVFP4 milik NVIDIA secara asli untuk pelatihan pra, belajar dalam presisi 4-bit sejak pembaruan gradien pertama, menghindari kehilangan presisi yang biasanya terjadi setelah pelatihan presisi tinggi dan kompresi. Jendela konteks mencapai 1 juta token, mampu menyimpan seluruh basis kode atau sekitar 750.000 kata dalam bahasa Inggris secara lengkap.

Standar Kinerja dan Aplikasi Perusahaan

Berikut adalah data perbandingan kunci dalam throughput inferensi dari Nemotron 3 Super:

Dibandingkan OpenAI GPT-OSS 120B: 2,2 kali lebih cepat

Dibandingkan Alibaba Qwen3.5-122B: 7,5 kali lebih cepat

Dibandingkan versi sebelumnya: peningkatan throughput secara keseluruhan lebih dari 5 kali lipat

NVIDIA telah secara lengkap mempublikasikan proses pelatihan, termasuk bobot model di Hugging Face, 10 triliun sampel pra-pelatihan pilihan (menggunakan lebih dari 25 triliun sampel selama pelatihan), 40 juta sampel pasca-pelatihan, dan rencana pembelajaran penguatan yang mencakup 21 konfigurasi lingkungan. Saat ini, Perplexity, Palantir, Cadence, dan Siemens telah mengintegrasikan model ini ke dalam alur kerja mereka.

Niat Strategis 26 Miliar Dolar: Menanggapi Kebangkitan Model Sumber Terbuka China Secara Global

Peluncuran Nemotron 3 Super hanyalah bagian dari strategi besar NVIDIA. Wakil Presiden Penelitian Pembelajaran Mendalam Bryan Catanzaro mengatakan kepada majalah Wired bahwa perusahaan baru saja menyelesaikan pelatihan model dengan 550 miliar parameter, dan rencana investasi AI sumber terbuka sebesar 26 miliar dolar dalam lima tahun juga diumumkan secara bersamaan.

Latar belakang strategis sangat mendesak: menurut penelitian OpenRouter dan Andreessen Horowitz, penggunaan model sumber terbuka China secara global meningkat dari 1,2% pada akhir 2024 menjadi sekitar 30% pada akhir 2025; Qwen dari Alibaba telah melampaui Llama dari Meta sebagai model sumber terbuka yang paling banyak digunakan (berdasarkan data dari Runpod). Model generasi berikutnya dari DeepSeek dilaporkan sepenuhnya dilatih di atas chip Huawei, yang jika benar, akan memberikan insentif kuat bagi pengembang global untuk mengadopsi hardware China—ini adalah situasi yang paling membutuhkan strategi sumber terbuka dari NVIDIA untuk diatasi.

Pertanyaan Umum

Apa keunggulan Nemotron 3 Super dibandingkan Qwen dan GPT-OSS?
Dalam throughput inferensi, Nemotron 3 Super 2,2 kali lebih cepat dari OpenAI GPT-OSS 120B dan 7,5 kali lebih cepat dari Alibaba Qwen3.5-122B. Perbedaan utama terletak pada arsitektur campuran Mamba-Transformer MoE dan pelatihan presisi 4-bit NVFP4 secara asli, yang memungkinkan aktivasi lebih banyak modul ahli dengan biaya komputasi yang sama, meningkatkan throughput lebih dari lima kali lipat dibandingkan versi sebelumnya.

Mengapa NVIDIA menginvestasikan 26 miliar dolar dalam pengembangan model AI sumber terbuka saat ini?
Ada dua motivasi utama: pertama, untuk mencegah ekosistem model sumber terbuka China dan chip China membentuk ekosistem tertutup, yang akan melemahkan posisi inti NVIDIA dalam infrastruktur AI global; kedua, untuk menciptakan model sumber terbuka yang dioptimalkan untuk hardware NVIDIA, sehingga meningkatkan ketergantungan pembelian chip mereka sendiri. Tingginya pertumbuhan pangsa pasar model sumber terbuka China dari 1,2% menjadi sekitar 30% menunjukkan bahwa waktu sangat mendesak.

Apakah data pelatihan dan bobot model Nemotron 3 Super sepenuhnya dipublikasikan?
Ya, NVIDIA mempublikasikan seluruh proses pelatihan di Hugging Face, termasuk bobot model, 10 triliun sampel pra-pelatihan pilihan, 40 juta sampel pasca-pelatihan, dan rencana pembelajaran penguatan yang mencakup 21 konfigurasi lingkungan. Transparansi teknisnya lebih tinggi dibandingkan sebagian besar model komersial sejenis.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar