NVIDIA Turun Tangan "Beternak Udang" Bertaruh Penuh pada Era AI Inference Triliunan Dollar

robot
Pembuatan abstrak sedang berlangsung

Perusahaan raksasa komputasi global, Nvidia, sedang bertransformasi dari perusahaan chip menjadi pabrik AI, mengandalkan peluang pasar inferensi kecerdasan buatan. Pada 17 Maret, dalam konferensi GTC Nvidia tahunan 2026 (Konferensi Teknologi GPU) yang dibuka, CEO Nvidia Jensen Huang secara besar-besaran menaikkan perkiraan pendapatan untuk chip AI generasi baru, menargetkan satu triliun dolar AS, serta secara resmi meluncurkan platform perangkat keras generasi berikutnya dan merilis produk-produk seperti tumpukan perangkat lunak yang mendukung “budidaya udang”.

Para profesional industri mengagumi bahwa sinyal kuat yang dilepaskan GTC tahun ini adalah bahwa era inferensi sedang semakin dipercepat. Sementara itu, arsitektur komputasi baru Nvidia akan memimpin revolusi di bidang industri seperti pendinginan dan bahan kemasan.

Memperkuat inferensi AI

Dalam konferensi GTC ini, Nvidia menegaskan bahwa dalam tahap baru untuk agen AI, inferensi akan menjadi inti kompetisi infrastruktur AI. Perusahaan secara resmi meluncurkan platform komputasi generasi berikutnya, Vera Rubin, dan chip LPU (Unit Pemrosesan Bahasa) Groq3.

“Dulu saat menyebut Hopper, saya akan mengangkat sebuah chip; tetapi saat menyebut Vera Rubin, yang terlintas adalah seluruh sistem.” Huang memperkirakan bahwa dalam beberapa tahun terakhir, kebutuhan komputasi meningkat 1 juta kali lipat, dan diperkirakan antara 2025 hingga 2027, pertumbuhan ini akan membawa pendapatan minimal satu triliun dolar AS bagi perusahaan.

Platform Vera Rubin yang diperkenalkan kali ini mencakup 7 chip, 5 sistem tingkat rak, dan sebuah superkomputer untuk AI agen, termasuk CPU Vera yang baru dan arsitektur penyimpanan Blue Field-4S TX. Dibandingkan platform Blackwell generasi sebelumnya, platform baru ini membutuhkan hanya seperempat GPU untuk melatih model ahli campuran besar, dan throughput inferensi per watt meningkat hingga 10 kali lipat.

Dalam acara tersebut, Huang menyoroti chip inferensi Groq 3 LPU, mengungkapkan “kejutan” yang sebelumnya disiapkan dalam laporan kinerja Februari. Chip ini berasal dari akuisisi teknologi inti Groq oleh Nvidia pada Desember tahun lalu dengan nilai sekitar 20 miliar dolar AS, dan diposisikan sebagai “co-processor inferensi” Rubin GPU, yang menjadi simbol strategi inferensi Nvidia.

Huang menyatakan bahwa dalam era agen AI, kebutuhan inferensi semakin berkembang pesat. Menghadapi tugas yang membutuhkan interaksi sangat tinggi dan waktu respons yang sangat singkat, arsitektur GPU tradisional menunjukkan redundansi performa. Oleh karena itu, Nvidia memperkenalkan arsitektur LPU yang fokus pada “pembuatan token dengan latensi sangat rendah”, bekerja sama dengan GPU. Vera Rubin bertanggung jawab untuk tahap “pengisian awal” yang membutuhkan perhitungan masif, sementara LPU menangani tahap “dekode” yang sangat sensitif terhadap latensi. Dalam arsitektur campuran ini, throughput inferensi dan rasio konsumsi daya sistem dapat meningkat hingga 35 kali lipat.

“Era inferensi AI tidak lagi hanya bergantung pada parameter puncak, tetapi pada kemampuan untuk melakukan optimisasi heterogen yang lebih halus berdasarkan beban kerja nyata, memaksimalkan penggunaan setiap unit komputasi.” Kepala terkait dari YunTianLiFei mengatakan kepada wartawan bahwa dalam era inferensi, efisiensi biaya menjadi prioritas utama, dan semakin dibutuhkan komputasi heterogen. Dengan membagi karakteristik beban kerja inferensi secara rinci, hardware yang berbeda dapat menangani tugas yang paling sesuai, sehingga meningkatkan efisiensi keseluruhan sistem. Strategi yang ditampilkan Nvidia kali ini adalah contoh nyata. Perusahaan chip AI domestik seperti YunTianLiFei dan lainnya terus mendorong inovasi arsitektur inferensi melalui pengembangan GPNPU, pemisahan PD, dan penyimpanan 3D stack, yang sebenarnya mengikuti arah industri yang sama.

Inovasi agen AI

OpenClaw, sebagai platform agen AI sumber terbuka, telah memicu tren “budidaya udang” secara global. Dalam konferensi GTC ini, Huang memuji OpenClaw, menyebutnya sebagai “membuka bidang baru AI untuk semua orang dan menjadi proyek sumber terbuka tercepat dalam sejarah,” serta menandai era penciptaan agen cerdas pribadi.

Nvidia berencana untuk ikut serta dalam “budidaya udang” ini dengan meluncurkan tumpukan perangkat lunak Nvidia Nemo Claw, yang cocok untuk platform agen AI OpenClaw, memungkinkan pengguna menginstal hanya dengan satu perintah, sekaligus meningkatkan pengelolaan keamanan agen AI, serta kepercayaan, skalabilitas, dan kemudahan penggunaannya.

Selain itu, Nvidia juga memperkuat kerja sama perangkat lunak, mengumumkan kolaborasi dengan perusahaan perangkat lunak industri terkemuka seperti Cadence, Siemens, dan Synopsys, serta mengintegrasikan platform perangkat lunak Nvidia CUDA-X, Omniverse, dan perangkat lunak industri yang dipercepat GPU ke perusahaan-perusahaan seperti Honda, Jaguar Land Rover, Samsung, SK Hynix, dan TSMC, untuk mempercepat proses desain industri, pengembangan teknik, dan manufaktur.

Huang mengatakan, “Sebuah revolusi industri baru telah dimulai. AI fisik dan agen AI otonom sedang secara fundamental mengubah cara desain, rekayasa, dan manufaktur global. Melalui kerja sama erat dengan raksasa perangkat lunak, penyedia layanan cloud, dan OEM di ekosistem global, Nvidia menyediakan platform komputasi akselerasi lengkap, memberdayakan berbagai industri untuk mewujudkan visi ini dengan skala dan kecepatan yang belum pernah terjadi sebelumnya.”

Pada hari pertama peluncuran ini, harga saham Nvidia naik 1,65%, menutup di $183,22 per saham; namun, indeks industri terkait Nvidia di pasar A-shares mengalami koreksi, dengan konsep modul optik memimpin penurunan, Tenda Communication turun sekitar 10%, Zhongji Xuchuang turun 3,33%, dan perusahaan utama PCB AI, Shenghong Technology, turun sekitar 3%.

Memimpin infrastruktur komputasi generasi baru

Nvidia terus memimpin transformasi rantai industri AI. Seiring arsitektur AI Nvidia menjadi semakin kompleks dan konsumsi daya meningkat tajam, teknologi pendinginan udara tradisional telah mencapai batas fisik. Kali ini, kabinet Rubin yang diperkenalkan menggunakan desain pendinginan cair 100%, yang berarti komponen inti pendinginan cair akan menjadi kebutuhan utama infrastruktur komputasi generasi baru.

Dalam konferensi ini, anak perusahaan LiminDa dari Lingyi Zhizao, sebagai satu-satunya pemasok di daratan China untuk ekosistem Manifold (Distributor) arsitektur Vera Rubin Nvidia, tampil. Sebagai bagian kunci dari sistem sirkulasi pendinginan cair, distributor dan konektor cepatnya secara langsung menentukan efisiensi dan stabilitas seluruh sistem pendinginan.

Selain itu, arsitektur Rubin terbaru dari Nvidia juga berpotensi mendorong inovasi bahan kemasan.

“Karena kebutuhan ekstrem Rubin terhadap pendinginan dan transmisi sinyal, proses komersialisasi substrat kaca dipercepat secara signifikan,” kata analis industri Shenmeng Lu. Dalam kepadatan komputasi ekstrem, papan sirkuit organik tradisional (ABF) menghadapi hambatan fisik yang serius.

Perusahaan domestik dan internasional berada di titik kritis dalam transisi dari ‘verifikasi teknologi’ ke ‘produksi awal massal.’ Menurut prediksi Yole Group dan lembaga lain, tahun 2026 akan menjadi titik masuknya kaca ke pasar produksi kecil secara komersial, dan dalam bidang HBM (memori bandwidth tinggi) serta kemasan chip logika, permintaan bahan kaca diperkirakan akan tumbuh dengan tingkat pertumbuhan tahunan gabungan hingga 33%.

Lu menyatakan bahwa perusahaan domestik dengan rantai industri panel paling lengkap dan pasar konsumsi terbesar di dunia memiliki keunggulan skala. Dengan memanfaatkan keunggulan ini, perusahaan domestik sudah mulai meraih terobosan di beberapa bagian bahan dan peralatan (seperti peralatan mikro-laser), dan secara strategis menempati posisi kunci dalam rantai pasok chip AI.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan