Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
## NVIDIA Rubin平台官宣:推理成本狂降10倍,GPU缩减4倍,2026年下半年交付
NVIDIA在CES 2025上正式宣布了AI芯片的下一代重磅产品Rubin平台,这是该公司延续每年迭代更新的传统。根据CEO Jensen Huang的现场公布,Rubin的六大核心芯片已从代工厂返回,并完成了关键性测试验证,确认能够按计划部署。这意味着NVIDIA在AI加速器领域继续保持技术领先地位,同时也回应了华尔街对其竞争压力和AI投资持续性的担忧。
### 性能飙升,成本显著下降
在Rubin cena(价格)方面,虽然NVIDIA暂未公布具体报价,但其成本效益获得显著提升。与前代Blackwell平台相比,Rubin的训练性能提升3.5倍,推理性能提升5倍。更引人瞩目的是,Rubin能将推理过程中的token生成成本降低10倍——这对依赖大模型推理的企业而言意味着运营成本的大幅削减。
此外,Rubin将训练混合专家模型(MoE)所需的GPU数量减少了4倍。这意味着企业可以用更少的硬件投入实现相同的性能目标,直接改善了采购投资回报率。
### 技术创新六大支柱
Rubin平台集成了五项突破性技术。其中,全新Vera CPU采用88个定制Olympus核心,基于Armv9.2架构,单核性能是竞品方案的两倍。这款CPU特别为AI代理推理优化,是当前大规模AI工厂中能效最优的处理器选择。
GPU端搭载第三代Transformer引擎,提供50 petaflops的NVFP4计算能力。单个GPU带宽达3.6TB/s,而Vera Rubin NVL72整机柜则达260TB/s——这种带宽级别为大规模模型训练和推理提供了充足的数据流通能力。
平台还融入第三代机密计算引擎和第二代RAS(可靠性、可用性、可维护性)引擎,涵盖CPU、GPU和NVLink全栈,提供实时健康监测、容错机制和主动维护功能。整个机柜采用模块化设计,组装和维护速度比Blackwell快18倍。
### 云服务商与AI实验室的新选择
NVIDIA宣布,包括业界主要云基础设施提供商在内的多家企业都将在2026年下半年首批部署Rubin实例。这些云服务商和集成商将为企业客户提供Rubin算力租赁服务。
在AI模型开发阵营中,包括OpenAI、Anthropic、Meta、Mistral AI和xAI在内的知名实验室已表示将使用Rubin平台来训练更大规模、更强性能的下一代模型。OpenAI CEO Sam Altman表示,计算能力的提升直接驱动智能体的进化,Rubin平台的性能优势将继续推动这一进程。Anthropic CEO Dario Amodei指出,Rubin的增强能力在推理质量和模型可靠性上带来显著改善。Meta CEO Mark Zuckerberg则强调,Rubin平台的效率提升对向全球数十亿用户部署最先进AI模型至关重要。
### 产业链全面布局
服务器硬件厂商如思科、戴尔、HPE、联想和超微等都已规划Rubin相关服务器产品线。这表明Rubin不仅是单纯的GPU创新,而是推动整个AI基础设施生态升级。
NVIDIA在今年选择提前于往常时间发布Rubin细节,这是其维持产业依赖度和市场热度的策略体现。通常该公司会在春季加州GTC大会上进行深度产品介绍,但此次在CES上的早期披露反映了AI竞争加剧的市场现状。
### 长期展望
尽管投资界对NVIDIA的持续增长和AI支出的可持续性仍有疑虑,NVIDIA仍维持其长期增长预期,并预计全球AI相关市场规模将达到数万亿美元。Rubin平台的推出标志着NVIDIA继续领跑AI芯片迭代,同时也意味着Rubin cena在成本效益上的竞争力将重新定义企业对AI基础设施的投资决策。