IT之家3月17日消息,今天(3月17日)在美国加州圣何塞举行的2026年GTC大会上,英伟达为推动智能体AI(Agentic AI)发展,发布了Vera Rubin AI平台。英伟达创始人兼首席执行官黄仁勋强调,Vera Rubin代表了一次跨世代的飞跃,标志着公司史上最大规模基础设施建设的开启,全面覆盖从大规模预训练到实时智能体推理的AI全生命周期。此举意味着英伟达正式进入传统CPU直销市场,不仅直接与英特尔、AMD展开竞争,还向全球云计算巨头自主研发的Arm架构处理器发起挑战。IT之家引用博文介绍,为了大幅提升基础计算效率,Vera CPU单芯片配备了88个核心和144个线程。该芯片采用英伟达深度定制的Arm v9.2-A Olympus核心,其指令级并行度(IPC)实现了惊人的1.5倍跨代飞跃。同时,该架构首次引入了“空间多线程”黑科技,通过物理隔离流水线组件,使多个线程能够在单核上同时运行,彻底摆脱了传统多线程技术中资源排队带来的算力损失。在核心算力方面,新一代NVL72机架实现了效率的突破性提升。该机架通过NVLink6连接了72块Rubin GPU和36块Vera CPU。与上一代Blackwell平台相比,该系统仅需四分之一的GPU即可完成混合专家大模型(MoE)的训练,同时推理每瓦的吞吐量提升高达10倍,单Token的成本降低至十分之一。此外,专为验证AI模型结果设计的Vera CPU机架集成了256块液冷CPU,其运行效率达到传统CPU的两倍,速度提升50%。为应对智能体系统对低延迟和长上下文的需求,英伟达推出了Groq3LPX推理加速机架。该系统包含256个LPU处理器,与Vera Rubin结合后,每兆瓦的推理吞吐量最高提升至35倍。在数据存储方面,全新BlueField-4STX架构构建了AI原生存储基础架构。借助全新的DOCA Memos框架,该系统能够高效处理由大型语言模型生成的海量键值(KV)缓存数据,在大幅降低能耗的同时,将推理吞吐量提升至最高5倍,从而实现更快速的AI多轮交互。**英伟达GTC2026大会专题**
史上最強のAI基盤構想:エヌビディアがVera Rubinプラットフォームを発表、単一トークンのコストを10分の1に削減
IT之家3月17日消息,今天(3月17日)在美国加州圣何塞举行的2026年GTC大会上,英伟达为推动智能体AI(Agentic AI)发展,发布了Vera Rubin AI平台。
英伟达创始人兼首席执行官黄仁勋强调,Vera Rubin代表了一次跨世代的飞跃,标志着公司史上最大规模基础设施建设的开启,全面覆盖从大规模预训练到实时智能体推理的AI全生命周期。
此举意味着英伟达正式进入传统CPU直销市场,不仅直接与英特尔、AMD展开竞争,还向全球云计算巨头自主研发的Arm架构处理器发起挑战。
IT之家引用博文介绍,为了大幅提升基础计算效率,Vera CPU单芯片配备了88个核心和144个线程。该芯片采用英伟达深度定制的Arm v9.2-A Olympus核心,其指令级并行度(IPC)实现了惊人的1.5倍跨代飞跃。
同时,该架构首次引入了“空间多线程”黑科技,通过物理隔离流水线组件,使多个线程能够在单核上同时运行,彻底摆脱了传统多线程技术中资源排队带来的算力损失。
在核心算力方面,新一代NVL72机架实现了效率的突破性提升。该机架通过NVLink6连接了72块Rubin GPU和36块Vera CPU。
与上一代Blackwell平台相比,该系统仅需四分之一的GPU即可完成混合专家大模型(MoE)的训练,同时推理每瓦的吞吐量提升高达10倍,单Token的成本降低至十分之一。
此外,专为验证AI模型结果设计的Vera CPU机架集成了256块液冷CPU,其运行效率达到传统CPU的两倍,速度提升50%。
为应对智能体系统对低延迟和长上下文的需求,英伟达推出了Groq3LPX推理加速机架。该系统包含256个LPU处理器,与Vera Rubin结合后,每兆瓦的推理吞吐量最高提升至35倍。
在数据存储方面,全新BlueField-4STX架构构建了AI原生存储基础架构。借助全新的DOCA Memos框架,该系统能够高效处理由大型语言模型生成的海量键值(KV)缓存数据,在大幅降低能耗的同时,将推理吞吐量提升至最高5倍,从而实现更快速的AI多轮交互。
英伟达GTC2026大会专题