AI 不仅仅是芯片的故事——而是记忆的革命

人们常常缺乏“远见”以清楚看到当前。 当一个趋势已经充分展现数据时,群体又选择怀疑,因为……价格已经上涨很多。 过去三年,NVIDIA每个GPU的VRAM容量增加了近3.6倍。 但真正值得注意的不仅是GPU——而是随附的HBM存储容量。 在未来三年,预计对HBM的需求可能会增加五倍。

那么问题不再是:“存储芯片的股票已经涨了很多了吗?” 而是:“你是否真的相信AI是一场长期的革命?”

当NVIDIA增长,存储不能置身事外 如果认为存储股票无法突破周期,那么意味着: NVIDIA的GPU销量将不会继续爆炸需求AI很快会降温全球代币增长只是暂时现象 但事实显示AI仍在以指数级扩展。黄仁勋曾强调,AI的计算需求可能会增加数千倍。如果计算增长千倍,那么支撑计算的存储——也不能只是小幅增长。 AI主要消耗三样东西: 计算(Compute)存储/内存(Memory)光连接(Optical Interconnect) 如果你相信计算是长期增长的故事,那么存储也理所当然是长期增长。这两个因素是密不可分的。

来自NVIDIA的资金吸引: “抽干”供应的效应 迈入Blackwell Ultra和Vera Rubin世代: 新GPU每卡消耗高达288GB HBM3e 高端版本可达384GB——512GB Vera CPU配备系统DRAM提升至每插槽1.5TB 这意味着:目前高端AI机架的DRAM消耗远超传统服务器。 更重要的是,NVIDIA采用: 大规模预付现金 长期“take-or-pay”合同 => 锁定大部分高端HBM产能在未来2–3年内。 结果: 其他超大规模云服务商如Google或Amazon必须竞争剩余供应 传统服务器和消费电子被挤压DRAM资源 行业进入结构性短缺状态,不再是普通周期性短缺。

存储巨头们的现状如何? SK海力士 2026年HBM产能几乎售罄 推动M15X工厂和Yongin集群 但大规模产能真正爆发是在2027–2028年底 实际订单已超出理论供应能力 三星电子 目标将HBM增长超过3倍 大规模投资P5 HBM4依赖先进封装良率和4nm逻辑 实际产能要等到2028年 美光科技 资本支出大幅提升至超过250亿美元 HBM4进入高产量生产 大部分2026–2027年的供应已被长期合同绑定 美国超级工厂预计从2028年开始贡献显著

物理障碍:无法“立即放开阀门” 有两个硬限制:

  1. 洁净室建设周期:从开工到达标需要18–24个月。无法用金钱缩短。
  2. HBM4耗用晶圆比普通DRAM多3–4倍:HBM4采用2048位接口,需在先进工艺上生产基础芯片。这延长了生产周期并增加晶圆消耗。 => 即使公司投资创纪录,实际比特增长仍受物理限制。

结论:存储正向增长股转变 NVIDIA的估值反映了一个假设:AI是一场长期的革命。 如果接受这个假设,就不能否认: 存储是AI的燃料 HBM是战略资源 高端DRAM正处于供需重构中 本质上,计算和存储是同一枚硬币的两面。它们要么共同成为长期增长的动力,要么共同崩溃。 市场可能仍存疑,但关于产能、合同约束和物理障碍的数据正在显示:这次周期可能不再是传统意义上的“周期”。

NVDA-4.36%
MU-7.22%
AMZN-1.4%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论