«История о «бычьем рынке ИИ» снова вызывает волну! Хуан Ренчжун представил грандиозные планы на триллионы долларов в области ИИ. NVIDIA(NVDA.US) взяла курс на достижение рыночной капитализации в 6 триллионов долларов»

英伟达CEO黄仁勋在北京时间3月17日凌晨的GTC大会上展现出英伟达在AI算力基础设施领域的“前所未有AI算力创收超级宏图”,
他告知全球投资者们,在Blackwell架构GPU算力强劲需求以及即将量产的Vera Rubin架构AI算力体系更加炸裂式强劲需求推动之下,
其在人工智能芯片领域的未来营收规模到2027年可能至少达到1万亿美元,
远远高于上一次GTC大会抛出的到2026年实现5000亿美元AI算力基础设施蓝图。

在高盛、Wedbush以及摩根士丹利等看好英伟达股价前景的分析师们看来,
在比预期更加强劲的营收增长前景推动之下,
英伟达市值即将继去年10月之后再度突破5万亿美元超级大关并且非常有望奔向比当前高得多的历史新高点位。

对于英伟达股价而言,可能不久后将再创历史新高且带动全球AI算力产业链迈向新一轮上行轨迹,
并且英伟达抛出的万亿美元超级AI算力宏图,
竭尽全力撑起“AI牛市叙事”这条资本市场主线。
就华尔街分析师们的平均目标价而言,意味着英伟达市值未来12个月内将突破6万亿美元市值,
华尔街最乐观预期更是高达8.8万亿美元总市值。

当模型规模、推理链路与多模态/代理式Agentic AI工作负载推动算力消耗呈指数型外扩时,
科技巨头们的资本开支主线更倾向于向AI算力基础设施集中,
全球投资者们更是将围绕英伟达、谷歌TPU集群与AMD的新品迭代与AI算力集群交付预期的“AI牛市叙事”,
继续锚定为全球股市中最具确定性的景气投资叙事之一,
同时也意味着电力、液冷散热系统、光互连供应链等与AI训练/推理密切相关的投资主题将跟随英伟达、
AMD以及博通、台积电、美光等AI算力领军者们在中东地缘政治局势面临不确定性之际,
仍继续位列股票市场最火热投资阵营。

在加利福尼亚州圣何塞举行的年度GTC开发者大会上,
首席执行官黄仁勋发布了一款新的中央处理器(即数据中心服务器级别CPU),
以及一套基于Groq公司独家AI推理架构技术所构建的LPU AI推理算力基础设施系统。
Groq是一家AI芯片初创公司,英伟达于去年12月以170亿美元从其获得了技术授权。

这些举措是黄仁勋巩固该公司在所谓“推理计算”领域地位努力的一部分。
所谓推理计算,是指回答全球B端与C端用户们查询请求的整个天量级别计算过程;
在这一领域,英伟达的AI GPU算力体系正面临来自中央处理器以及谷歌等公司所开发定制AI ASIC处理器(即谷歌TPU领军的AI ASIC技术路线)的更激烈竞争。
近几年,英伟达芯片一直主导着AI大模型训练这一环节,而这也一直是市场关注的重点。

英伟达AI GPU几乎垄断的AI训练侧需要更加强大的AI算力集群通用性以及整个算力体系的快速迭代能力,
而AI推理侧则在前沿AI技术规模化落地后更看重单位token成本、延迟与能效。

“人工智能推理时代已经到来,”黄仁勋在GTC大会上表示。
“而且推理需求还在不断上升,”他补充道。

身穿其标志性的黑色皮夹克,黄仁勋在一座可容纳逾1.8 万人的冰球馆中发表演讲。
这场为期四天的科技大会已经成为全球AI技术最大的展示平台之一。
“我只想提醒大家,这是一场万众瞩目的技术大会,”他对听众们说道。

AI推理狂潮来袭,英伟达“AI算力蓝图”跃升至万亿美元

如果把黄仁勋这次 GTC 讲话压缩成一句话,核心就是:
英伟达正在把自己从“卖AI GPU的公司”彻底重构为“卖AI工厂的芯片巨头”。
官方 keynote 以 token 是现代 AI 的基本单位开场,
黄仁勋把行业主线从“训练”推进到“推理 + agentic AI(智能体 AI)”,
并把 2025-2027 年 AI 基础设施营收机遇从此前的 5000 亿美元上修到至少1万亿美元。
这不是简单的需求上调,而是在告诉资本市场:
未来的算力竞争不再只看训练峰值 FLOPS,而要看谁能把 token 以最低成本、最高级别数据吞吐、最好时延持续生产出来。

围绕这套AI算力需求扩张叙事,黄仁勋给出的商业底层逻辑其实非常清楚:
数据中心已经不是“存储中心”,而是“AI factory”(AI工厂)。
在固定电力预算下,最关键的指标不是单芯片峰值性能,而是“tokens per watt、cost per token、time to first production”。
这也是为什么他反复强调 “extreme codesign”(极限协同)——即把计算、网络、存储、软件、供电和冷却当成一个整体来优化。
官方口径显示,Vera Rubin NVL72 相比 Blackwell 平台可实现最高10倍的每瓦推理吞吐、仅仅十分之一的单token 成本,
训练大规模 MoE 模型所需 GPU 数量也可降到原来的四分之一。
这已经不是“芯片迭代”,而是 AI 基础设施经济学的重写。

在最新的硬件层面,这次GTC最重要的变化,
是英伟达正式把 CPU、GPU、LPU、DPU、SuperNIC、交换极芯片和存储架构整合成一个平台级系统。
官方定义的Vera Rubin platform包括 Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet switch,
以及最新集成的NVIDIA Groq 3 LPU;其中Vera Rubin NVL72机架由72个 Rubin GPU + 36个Vera CPU构成,
而Groq 3 LPX机架则专门补足低时延推理。
黄仁勋革新式把AI推理拆成两段:prefill由Vera Rubin 负责,decode由GroqAI芯片负责。
这意味着英伟达对推理时代的答案,不再是“让GPU做一切”,
而是用异构计算把高吞吐与超低时延分开处理。

软件与生态层面,黄仁勋在演讲中的立场同样激进。
Dynamo 1.0 被英伟达定义为 AI factory 的推理操作系统,
官方称其对 Blackwell 可带来 最高 7 倍推理性能提升;
而在智能体方向,英伟达推出 Agent Toolkit、OpenShell、NemoClaw,把 OpenClaw 上升为“个人 AI 的操作系统”式平台,
并为企业落地补上策略控制、隐私路由与安全边界。
与此同时,英伟达还扩展了 Nemotron、Cosmos、Isaac GR00T、Alpaymayo、BioNeMo、Earth-2 等开放大模型家族,并预告了 Feynman架构的路线图:
下一代平台将引入 Rosa CPU、LP40 LPU、BlueField-5、CX10、Kyber,把铜互连与共封装光学继续向下一代 AI 工厂推进。

再往外延展,GTC 2026 不是只讲数据中心。
英伟达同时把“physical AI”(物理AI)与“空间计算”拉进主舞台:
IGX Thor 已进入通用可用阶段,面向工业、医疗、机器人和轨道边缘计算;
Open Physical AI Data Factory Blueprint 用来加速机器人、视觉 AI 智能体和自动驾驶的数据生成、增强与评估;
而 Space-1 Vera Rubin Module 则把 Vera Rubin 架构延伸到轨道数据中心,
官方称其相较 H100 可为太空推理带来最高25倍AI算力。
这说明英伟达已经把“AI 工厂”从云数据中心扩展成一个跨云、边、端、车、机器人甚至太空的统一基础设施范式。

本次GTC 2026的真正主题,其实并不是像以往那样的单一新品发布,
而是英伟达把GeForce、数据中心算力基建、网络、存储、推理算力系统、智能体平台、机器人和空间计算全部装进一个统一叙事——
“从单一GPU供应商升级为AI基础设施总包商”。
这也是为什么这次大会最值得关注的,不是某颗AI芯片参数,而是英伟达正在用系统级产品把未来数年的token经济学、推理货币化进程和基础设施议价权全部提前锁定。

AI算力基础设施垄断地位巩固,英伟达股价直指历史新高?

“投资者们在这之前普遍存在科技巨头们庞大AI基建支出难以持续的担忧,
但是随着黄仁勋勾勒出到2027年为止1万亿美元的创收机遇,
投资者开始相信英伟达AI基础设施的需求仍然具有长期持久性。”Emarketer 分析师Jacob Bourne表示。
“在整个AI行业从早期试验阶段迈向大规模部署之际,英伟达仍在维持其在AI算力市场的领先地位。”

当黄仁勋在 GTC 上把英伟达到 2027 年的 AI 芯片与基础设施机会规模一举抬升至至少 1 万亿美元时,
市场看到的已不再是一家继续卖更强 GPU 的芯片公司,而是一家试图定义下一代 “AI 工厂” 生产函数的基础设施帝国:
从训练时代迈向推理时代,从单芯片竞争迈向整机柜、整网络、整软件栈的系统级统治,
从 Blackwell、Vera Rubin 到面向低时延解码的Groq技术协同,
英伟达正在把 token 吞吐、每瓦营收和推理货币化能力写成新的估值语言。

黄仁勋在GTC大会上一边用1万亿美元机会规模证明需求仍在积极扩张,
另一边用CPU、GPU、LPU、高性能网络组件、软件生态与agent工具链的整套平台说明,
英伟达的竞争单位已经不再是单颗AU芯片,而是整座AI工厂。

黄仁勋口中的“推理拐点已经到来”,
本质上是在向资本市场宣告:AI 资本开支远未见顶,真正的大规模部署才刚刚开始;
而当英伟达把 CPU、GPU、LPU、网络、Agent 软件与数据中心经济学一并装进同一套叙事,
它所扬起的就不只是新一轮产品周期,而是再度驶向 5 万亿美元市值想象空间的超级巨轮。
TIPRANKS汇编的华尔街分析师平均股价显示,分析师们普遍看好英伟达股价冲至273美元,
意味着在他们看来,英伟达未来12个月上行潜力高达惊人的51%,
最乐观目标价更是高达360美元。
273美元目标价,即对应英伟达大约6.6万亿美元。
截至周一美股收盘,英伟达股价收于183.220美元,市值约4.45万亿美元。

黄仁勋在大会上把 AI 芯片/AI算力基础设施的营收机会上调至到2027 年至少1万亿美元,
明显高于此前围绕Blackwell与Rubin架构提出的到 2026 年 5000 亿美元口径,
华尔街金融巨头高盛在GTC大会之后表示,
最新的GTC大会上的万亿美元创收前景,给市场提供了一份更长周期的需求背书,
足以缓解投资者对“AI 资本开支可能在 2026 年见顶”的焦虑。
换言之,高盛分析师团队认为这场演讲不是单纯秀新品,
而是在重新锚定英伟达未来两三年的订单天花板与业绩持续性。

高盛强调,英伟达不仅发布了又一个性能无比强劲的单颗AI GPU,
而是它正式把推理(inference)以英伟达独家方式商业化,
把英伟达AI算力基础设施全面升级成下一阶段全球AI军备竞赛的最核心装备。
正如上所述的那样,黄仁勋把推理拆成 prefill与decode两段:
前者由 Vera Rubin 负责,后者由Groq 3 LPX/LPU 承接,
这意味着英伟达正从“训练霸主”进一步扩张为“AI算力推理基础设施总包商”。
高盛强调,官方给出的口径超出市场预料:
Vera Rubin + LPX 可实现最高35倍的每兆瓦推理吞吐,并为万亿参数模型带来最高10倍的营收机会。

高盛表示,英伟达不只是守住训练市场,而是在电力受限、时延敏感的推理时代,
拿出了更强的变现框架与更完整的异构算力答案。
高盛之所以立场更加积极看涨,主要是因为这次GTC同时满足了投资者最关心的两件事:
一是需求有没有见顶,二是推理时代英伟达会不会被 CPU、自研 ASIC 或其他定制芯片稀释掉护城河。

高盛表示,1万亿美元的这一前瞻指引远超市场预期,
证实了云计算超级巨头(Hyperscalers)的需求依然强劲且持久。
基于对未来几个月潜在催化剂的乐观判断,高盛重申对英伟达的“买入”评级,
并维持250美元的12个月目标价,
强调超级云服务商的资本支出计划和基于Blackwell与Rubin架构的新模型将持续巩固该公司的性能领先地位。

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить