HBM 后 AI 存储器瓶颈是 HBF?图灵奖得主 David Patterson:推理将重新定义存储架构

鏈新聞abmedia

AI 晶片競賽过去两年幾乎都圍繞在 HBM,但随著 AI 应用从模型訓練走向大規模推論,下一个供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高频寬快闪記憶體)。圖靈獎得主、UC Berkeley 教授 David Patterson 於 4 月 30 日在美国舊金山表示,他认为,HBF 很可能成为下一个需求快速上升、甚至形成新瓶頸的关鍵記憶體技術。

(輝达 Vera Rubin 有何改變?解析記憶體戰国时代:SK 海力士、三星、美光、SanDisk)

圖靈獎得主 David Patterson 为何看好 HBF

AI 記憶體的討論幾乎都圍繞在 HBM(高频寬記憶體)展开,但随著 AI 应用从模型訓練走向大規模推論,下一个供給瓶頸可能不再只是 HBM,而是 HBF(High Bandwidth Flash,高频寬快闪記憶體)。

Patterson 是电腦科学界重量級人物,被視为 RISC 架構的重要设计者之一。他在談到 HBM 之后的下一階段时指出,雖然 HBF 仍有不少技術挑戰需要解決,但 SK 海力士与 SanDisk 等企业正在推动的 HBF,具備「以较低功耗提供大容量」的特性,未来 AI 系统的核心變數,將不只是算力,而是资料能否被有效儲存、调度与供应。

HBF 是什麼?把 NAND Flash 疊起来,不是取代 HBM,而是分工

HBF 与 HBM 最大差異在於底層記憶體材料不同。HBM 是將 DRAM 垂直堆疊,用来提供 GPU、AI 加速器所需的高频寬资料存取能力,主要负责「快速餵资料給运算單元」。HBF 則是將非揮发性記憶體 NAND Flash 进行堆疊,核心優勢不是極致速度,而是以较低成本、较低功耗提供更大的资料容量。

換句話说,HBM 解決的是 AI 运算过程中「速度」问題,HBF 解決的是 AI 系统越来越龐大的「容量」问題。这也是为什麼 HBF 並不是單純取代 HBM,而是与 HBM 形成新的記憶體分工。HBM 负责即时、高速的资料交換;HBF 則承擔大規模中间资料、上下文资料与推論过程中反覆调用资料的儲存需求。

AI 推論市场擴大,让 HBF 需求浮上檯面

HBF 之所以在 2026 年受到更多关注,关鍵在於 AI 市场重心正从訓練逐步走向推論。AI 訓練是把大量资料餵給模型,让模型学会參數与規律;AI 推論則是模型被訓練完成后,实际根據使用者输入产生答案、執行任務、記住前后文並持续判斷的过程。

在推論场景中,AI 不只是一次性回答问題,而是要保留先前对話、工作脈絡、判斷結果、工具调用紀錄,甚至跨任務的中间资料。这些资料量龐大,而且需要被反覆读取与更新。

问題在於,这些资料若全部放进 HBM,成本太高,容量也不现实。HBM 适合處理立即需要的高速资料,但不适合承擔所有推論过程中产生的上下文与中间狀態资料。当 AI Agent、长上下文模型、多模態推論与企业級 AI 工作流普及后,系统需要的不只是更快的記憶體,而是更大的高速资料池。这正是 HBF 被看好的原因。

SK 海力士与 SNDK 已推动標準化,2038 年 HBF 需求或超越 HBM

为了追求频寬,SK 海力士与 SanDisk 合作开发 HBF。这是一種類似 HBM 的 3D 堆疊技術,但使用 NAND 晶圓,旨在提供比傳统 SSD 快數倍的吞吐量,專门服務於 AI 推論 。

韓国 KAIST 电机电子工程学系教授金正浩也曾在 2 月的 HBF 技術说明会中指出,PC 时代的核心是 CPU,智慧手机时代的核心是低功耗,而 AI 时代的核心則是記憶體。他將 HBM 与 HBF 的角色分得很清楚:決定速度的是 HBM,決定容量的是 HBF。金正浩更预測,自 2038 年开始,HBF 的需求可能超越 HBM。

这个判斷背后的逻辑是,AI 推論市场越大,模型所需處理的即时上下文、歷史资料与任務狀態就越龐大。若只靠 HBM 擴充,不但成本高昂,也会让整體系统功耗与封裝壓力持续上升。HBF 若能在频寬、封裝、耐用性与標準化上取得突破,就可能成为 AI 资料中心的新一代关鍵記憶體層。

从 HBM 到 HBF,AI 競賽从「算得快」走向「記得住、调得动」

过去市场談 AI 半導體,焦点多放在 GPU、先进製程与 HBM 供应。尤其在 Nvidia AI 伺服器需求暴增后,HBM 一度成为判斷 SK 海力士、三星、美光等記憶體廠競爭力的核心指標。但 Patterson 的说法提醒市场,AI 基礎设施的瓶頸正在變得更複雜。

当 AI 还處於大模型訓練競賽階段,重点是用更高频寬的記憶體餵飽 GPU;但当 AI 进入大規模推論与 Agent 应用階段,问題会變成:模型如何长时间維持上下文?如何低成本保存任務狀態?如何让资料在 GPU、HBM、SSD、Flash 与網路儲存之间更有效率地流动?

因此,下一階段的 AI 記憶體競賽,可能不再只是 HBM 产能之爭,而是整个記憶體階層的重組。HBM 仍然重要,因为它決定 AI 晶片能否高速运算;但 HBF 的出现,代表 AI 系统开始需要一種介於傳统儲存与高频寬記憶體之间的新型资料層。它不一定最快,卻可能在容量、功耗与成本之间找到新的平衡。

这也意味著,AI 供应链的下一个关鍵詞,可能將从「高频寬記憶體」延伸到「高频寬快闪記憶體」。HBM 解決 AI 的即时运算瓶頸,而 HBF 則可能解決推論时代更龐大的资料記憶瓶頸。

这篇文章 HBM 后 AI 記憶體瓶頸是 HBF?圖靈獎得主 David Patterson:推論將重新定義儲存架構 最早出现於 链新聞 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明

相关文章

Riot 股票在扩展 AMD 数据中心合作后上涨 8%

Riot Platforms 的股价在其与 AMD 的数据中心合作扩展以及融资条件改善后上涨 8%,这反映了这家比特币矿企在战略上转向人工智能和数据中心

GateNews2小时前

明尼苏达州禁止 AI 非自愿色情影像工具,并处以最高 $500K 罚金

据 Decrypt 称,明尼苏达州议会于 5 月 2 日通过了一项法案,禁止网站和应用程序提供可生成未经同意的亲密图像的 AI 工具,且这些图像涉及可识别的个人。该法律禁止平台允许用户访问或使用此类“深度伪造”工具,并禁止

GateNews4小时前

ChatGPT 用户现在可在 OpenClaw 平台上访问订阅,萨姆·奥尔特曼宣布

根据 Sam Altman 今天的公告,ChatGPT 用户现在可以使用他们的 ChatGPT 账号登录 OpenClaw 代理平台,并直接访问他们在该平台上的现有 ChatGPT 订阅。

GateNews5小时前

xAI 推出 Grok 定制语音,让用户在一分钟内克隆自己的 AI 语音

据 Beating,xAI 发布了 Grok Custom Voices 和 Voice Library,允许用户在 xAI 控制台录制一分钟音频,以生成一个自定义的 voice_id,用于 Grok TTS 和 Voice Agent API。该功能支持包括客服代理、内容创作在内的应用,

GateNews6小时前

Anthropic 使用 Claude 的开发者大会 5/6 旧金山开幕:直播免费注册

Anthropic 5 月 1 日宣布首屆「Code with Claude」开发者大会將於 5 月 6 日舊金山开幕,並首次擴大至倫敦(5/19)与东京(6/10)三城巡迴。三场主场会议的现地名額採抽籤制、皆已抽选完畢,但直播註冊仍对所有人开放。为回应现地需求超載,舊金山场另加开 5/7「Extended」场次,專为獨立开发者与早期階段創辦人设计。 三场巡迴:5/6 舊金山、5/19 倫敦、6/10 东京 Code with Claude 是 Anthropic 主辦的开发者大会,舊金山主场已是第二次舉辦。3 场活动內容相同:一整天的现场工作坊、最新功能 demo、与 Claude 各條

鏈新聞abmedia6小时前

OpenAI 公布 GPT-5.5 上线一周数据:API 营收增速创新高、Codex 翻倍

OpenAI 5 月 1 日于官方账号公布 GPT-5.5 上线一周后的 3 项数据:自评为「历代最强发表」、API 营收成长速度为过去任何一次模型发表的 2 倍以上、Codex 在不到 7 天内营收翻倍。OpenAI 将原因归为企业端对 agentic coding(代理式編码)工具需求持续攀升,与 4 月 30 日 GPT-5.5-Cyber 同期应战 Anthropic Mythos 形成同一波产品节奏。 3 项自公布数据:API 营收倍速、Codex 7 天翻倍、最强发表 OpenAI 此次公布的 3 个关键数字来自官方推文,未附详细财报:第一,GPT-5.5 是「历代营收成长最強」的模

鏈新聞abmedia6小时前
评论
0/400
暂无评论