在黃仁勳訪談第二段,他正面回應了 TPU 與 ASIC 對輝達的威脅。他強調 NVIDIA 做的不是單一張 AI 晶片,而是加速運算平台,重點在於整個生態系的整合。正如同美中晶片戰,AI 競賽不是單點勝負,要看的是整個技術棧能否同時壯大。
面對「AI 本質上就是大量矩陣乘法,為什麼不讓更專用的 TPU 類架構來主導?」這樣的質疑,黃仁勳的回答是:矩陣乘法很重要,但它不是 AI 的全部。從新 attention 機制、混合式 SSM、diffusion 與 autoregressive 融合,到模型分散式執行與架構革新,AI 的進展往往來自演算法創新,而不只是硬體按摩爾定律往前推。
既然 NVIDIA 手握大量現金,也已透過投資 CoreWeave、Nebius、Nscale,甚至 OpenAI、Anthropic 等方式深度參與 AI 基礎設施與模型層,那它為什麼不乾脆自己下場當雲服務商?黃仁勳的答案仍回到那句話:做必要的最多,非必要的最少。這不屬於「若我們不做,就沒人做」的範疇。
TPU 與 ASIC 不是沒威脅,但 NVIDIA 的戰場更大
針對 Google TPU、AWS Trainium,甚至 OpenAI、Anthropic 與其他大客戶自研或採用替代加速器的趨勢,黃仁勳並未表現出防禦姿態,反而多次把焦點拉回「NVIDIA 做的不是單一張 AI 晶片,而是加速運算平台」。
他強調,NVIDIA 打造的是 accelerated computing,而不是只做 tensor processing。AI 當然是今天最重要的應用之一,但 GPU 與 CUDA 能處理的遠不只 AI,還包括分子動力學、量子色動力學、資料處理、流體力學、粒子物理、藥物研發、影像生成與各種科學運算。這讓 NVIDIA 的市場觸角天生就比為單一工作負載設計的 ASIC 更廣。
面對「AI 本質上就是大量矩陣乘法,為什麼不讓更專用的 TPU 類架構來主導?」這樣的質疑,黃仁勳的回答則是:
矩陣乘法很重要,但它不是 AI 的全部。從新 attention 機制、混合式 SSM、diffusion 與 autoregressive 融合,到模型分散式執行與架構革新,AI 的進展往往來自演算法創新,而不只是硬體按摩爾定律往前推。
他說得非常直接:若只靠晶體管縮放,每年大約也就 25% 左右的提升;但 NVIDIA 從 Hopper 到 Blackwell,能做到 35 倍、甚至 50 倍等級的能效躍升,靠的不是單純製程,而是模型、演算法、網路、記憶體、系統架構與 CUDA 協同設計。
也因此,黃仁勳把 NVIDIA 描述成一家「極端共同設計公司」。它不只是做 GPU,而是同步改動處理器、互連、網路、函式庫、演算法與整個系統。如果沒有 CUDA 這層高度可編程的堆疊,這種大幅度跨層優化就很難實現。
CUDA 的價值:裝機量、信任感與全球通用性
當主持人質疑,既然大客戶如 OpenAI、Anthropic、Google、AWS 都已經會自己寫 kernel、自己做框架優化,CUDA 還有那麼強的護城河嗎?黃仁勳則從三個角度回應。
第一,是生態系的完整與可靠。NVIDIA 可以為 Triton、vLLM、SGLang 等框架提供大量底層支援,讓研究者可以建立在一個已經被充分驗證的基礎上。對開發者而言,最怕的不是自己寫錯,而是根本無法判斷錯在自己還是錯在底層平台。CUDA 的價值之一,就在於它已經被「反覆跑透」,足夠值得信任。
第二,是龐大裝機量。黃仁勳直言,如果你是框架開發者、模型開發者,最想要的絕對是 install base。你不會想把軟體只寫給自己用,而是希望它能跑在盡可能多的機器上。從 A10、A100 到 H100、H200,再到雲端與地端、機器人與工作站,CUDA 幾乎無所不在。這種裝機基礎意味著,一次開發,可以覆蓋全球大量系統。
第三,是跨雲端與跨場景的通用性。黃仁勳指出,NVIDIA 是極少數能同時存在於所有主流雲端與 on-prem 環境的運算平台。對 AI 公司來說,這代表它們不必太早鎖定單一雲端服務商,也更容易把產品部署到不同市場與場景中。
換句話說,CUDA 的價值不只是「工具鏈方便」,而是它結合了生態完整度、全球裝機量與場景通用性,形成一個很難輕易撼動的飛輪。
高毛利不靠軟體稅,靠「每瓦 token 產出」與總持有成本
對於外界質疑 NVIDIA 之所以能維持高毛利,很大程度來自 CUDA 壟斷,而未來若更多客戶有能力自行寫 kernel、打造替代軟體堆疊,高毛利是否會被侵蝕,黃仁勳的回應極具自信。
他指出,NVIDIA 內部投入到各大 AI 實驗室的工程支援人力「多到驚人」,因為 GPU 並不像 CPU 那樣容易駕馭。黃仁勳把 CPU 比喻成 Cadillac,平穩、好開、人人都能上手;而 NVIDIA 的加速器更像 F1 賽車,理論上人人都能開,但真正要把性能壓榨到極限,需要極高專業能力。
NVIDIA 也大量使用 AI 協助自身生成與優化 kernel,因此在與客戶共同調校時,常常能把某個模型或 stack 再提升 50%、2 倍,甚至 3 倍性能。這種優化對擁有大規模 GPU 艦隊的客戶而言,幾乎等同於直接翻倍收入。
黃仁勳更進一步主張,NVIDIA 的平台在全世界擁有最佳 performance per TCO,也就是最佳總持有成本效益比。他說,沒有人能真正證明 TPU、Trainium 或其他平台在整體成本與效能上優於 NVIDIA,市場上也缺乏公開、可信、可正面對比的展示。
在他看來,NVIDIA 的成功根本上不是因為客戶被 CUDA 綁住,而是因為它能在相同能源、相同資本支出下,產出最多 token,進一步轉化成最多收入。對建設 1GW 級 AI 資料中心的客戶來說,最重要的不是單顆晶片便不便宜,而是整座資料中心能不能產生最大收入。只要 NVIDIA 在 tokens per watt 與 perf per dollar 上仍是全球最佳,高毛利就有其合理性。
為何 NVIDIA 沒自己變成 hyperscaler?
既然 NVIDIA 手握大量現金,也已透過投資 CoreWeave、Nebius、Nscale,甚至 OpenAI、Anthropic 等方式深度參與 AI 基礎設施與模型層,那它為什麼不乾脆自己下場當雲服務商?
黃仁勳的答案仍回到那句話:「做必要的最多,非必要的最少。」
如果 NVIDIA 不去做 CUDA、NVLink、CUDA-X、各類領域函式庫與底層平台,那這些東西很可能根本不會有人做,因此 NVIDIA 必須親自做。但如果是雲端服務,世界上已經有很多,這不屬於「若我們不做,就沒人做」的範疇。
不過,當新型態 AI 雲服務商還很弱小、可能需要幫一把才能起飛時,NVIDIA 願意提供資金、供應與技術支持,幫助這個生態系長出來。也就是說,NVIDIA 願意扶植 ecosystem,但不想親自變成 financier 或 hyperscaler。
至於投資 OpenAI、Anthropic 等模型公司,黃仁勳也承認,這其實是 NVIDIA 近年的學習結果。過去 NVIDIA 並沒有意識到,像 OpenAI、Anthropic 這種基礎模型公司在早期根本無法靠傳統 VC 模式完成所需資本密度。等到他真正理解這一點時,才意識到自己若有機會,本來可以更早下場支持。
他甚至坦言,這算是自己的錯誤判斷之一:「當時沒有深刻理解,這些公司若沒有來自大型科技公司或類似等級資本的支援,根本很難成立。」如今 NVIDIA 有了更大的規模,他也說明自己不會再犯同樣錯誤。
中國問題,整場對談最尖銳的一段
整場訪談最激烈的攻防,集中在中國與晶片出口限制。主持人的立場是,AI 算力是訓練與部署高風險模型的直接投入品,如果中國獲得更多先進算力,就可能更快打造具備網路攻擊、漏洞挖掘等能力的模型,這會對美國國安與企業安全構成實質風險。
黃仁勳並不否認 AI 具備風險,也不否認美國應該持續保持領先,但他非常反對把 AI 晶片等同於核武材料或「只要多賣一點就會出事」的極端推論。
他的核心論點有幾個。
首先,他認為中國並不是沒有算力的真空地帶。中國擁有龐大能源、晶片製造能力、通訊與網路基礎設施,也擁有全球極大比例的 AI 研究人才。在黃仁勳的敘述裡,中國不是「如果拿不到 NVIDIA 晶片就無法發展 AI」,而是「如果拿不到最好的,就會改用自己的,並且被迫更快建立本土技術棧」。
其次,他認為出口限制的副作用,是迫使中國的開源模型、生態系與晶片產業加速脫離美國技術棧。這在他看來,是美國長期更該擔心的風險。因為 AI 不是只有模型,還包括晶片層、開發工具層、開源生態層、應用層等整個堆疊。若美國為了保護某一層,例如最前沿模型公司,而犧牲掉整個晶片與開發者生態對中國市場的影響力,長期反而可能讓美國在全球標準與平台戰中失去位置。
中國是全球第二大科技市場,也是全球最大的開源軟體與開源模型貢獻者之一。若美國主動放棄這塊市場,就等於主動把一整個開發者群體推向另一套技術棧。這不只傷害 NVIDIA,也傷害整個美國科技產業與國安。
第三,他反覆強調,世界不是零與無限的極端推演。美國當然應該擁有最多、最好、最早的算力,這點他完全同意;但這不代表美國就應該主動放棄全球第二大市場,或把 AI 描述成某種類似濃縮鈾的絕對武器。對他來說,過度極端的敘事不只無助於政策制定,還可能嚇跑人才、削弱產業信心,最終讓美國自己失去競爭優勢。
他甚至把這件事拉回國內產業政策脈絡:「如果美國因恐懼而把 AI 過度武器化,也會連帶讓更多人抗拒投入軟體、工程與相關領域。」這種恐懼式政策,在他眼裡是一種「輸家心態」,而不是領導技術革命的國家該有的姿態。
黃仁勳真正想說的是:「AI 競賽不是單點勝負,要看的是整個技術棧能否同時壯大。」
這篇文章 黃仁勳最新專訪(下):為什麼輝達不自己做 Hyperscaler? 最早出現於 鏈新聞 ABMedia。