Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Huang Renxun định hình “Kinh tế học Token” Nvidia đón nhận kỷ nguyên trí tuệ nhân tạo
3月17日凌晨,被誉为AI“超级碗”与AI“春晚”的英伟达GTC开幕, “AI教主”、英伟达创始人兼CEO黄仁勋再次站在舞台中央,用一场技术风暴刷新着物理极限。
英伟达宣布,Vera Rubin(最新芯片架构)目前已有七款新芯片全面投入生产,Vera Rubin平台正在开启Agentic AI新时代,构建全球最大的AI工厂。
具体而言,这些芯片产品包括:NVIDIA Vera CPU(英伟达已进军服务器CPU),NVIDIA Rubin GPU(GPU王牌产品),NVIDIA NVLink 6(第六代NVLink交换机芯片,芯片内部互联),NVIDIA ConnectX-9 SuperNIC(超级网卡),NVIDIA BlueField-4 DPU(存储芯片),NVIDIA Spectrum-6(以太网交换机芯片,支持CPO技术),以及新集成的NVIDIA Groq 3 LPU(收编Groq后的首款芯片)。
可以看到,芯片家族中不仅有大家平常熟知的CPU、GPU产品,还包括来自Groq的LPU,以及存储芯片、交换机芯片等全系产品。这些芯片又能够组成5款机架,在数据中心运行。
“Vera Rubin是一次代际跃迁——七个突破性芯片、五种机架、一台巨型超级计算机——为AI的每一个阶段提供动力,”黄仁勋表示,“随着Vera Rubin的推出,Agentic AI的拐点已经到来,并将开启历史上最大规模的基础设施建设。”
在演讲中,黄仁勋还预测,Blackwell与Rubin的AI芯片,到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测,已经翻倍。
这场发布会可谓“前所未有”,这不单单是GPU、也不单是某一项技术升级,黄仁勋再次强调“Token”经济学,并贯彻AI“五层蛋糕”理论。
一个趋势是,巨头们正在不断聚集能力,补齐短板,延伸上下游,形成更加强大的壁垒。单一比拼芯片、性能等单打独斗的阶段已经过去,一场全方位的系统级激烈竞赛正在上演。
Vera Rubin的彻底革新:从单芯片到系统级时代
作为Blackwell的跨代接力者,英伟达定于2026年下半年量产的Rubin (R100) 架构。在核心底层,该架构全面转场台积电3nm (N3P) 工艺,其标志性的Vera CPU(基于88核自研Olympus 架构)与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现了物理意义上的同封装集成。
这种“去PCIe化”的紧耦合设计,让算力不再受限于传统链路,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,其规模化推理能效较Blackwell提升了5倍之多。
在应用场景层面,Rubin是专门为“代理型AI(Agentic AI)”与长上下文推理打造的数字工厂心脏。它引入Transformer Engine 3.0与Inference Context Memory存储平台,通过BlueField-4 DPU卸载存储管理压力,使得AI智能体能够处理数万个Token的上下文关联,并进行多步逻辑推理与实时决策,平台配备了支持硅光子技术(CPO)的Spectrum-X Ethernet Photonics网络,单机柜NVL72的内部互联总带宽达到260 TB/s,相当于全球互联网跨境带宽总和的数倍。
英伟达还推出了Vera CPU机架,它是基于英伟达MGX构建的高密度液冷基础设施,集成256个Vera CPU,以提供可扩展、节能的容量,并具备世界级单线程性能。与GPU计算机架一起,它们为大规模Agentic AI和强化学习提供CPU基础——Vera的效率是传统CPU的两倍,速度提升50%。
目前,与英伟达合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta和Oracle Cloud Infrastructure,以及CoreWeave、Lambda、Nebius和Nscale。Vera已经全面投产,并将在今年下半年供货。
传统的数据中心、AI基建正在面临新的变革。黄仁勋表示:“在AI时代,智能Token是新的货币,而AI工厂是生成这些Token的基础设施。通过Vera Rubin DSX AI Factory参考设计和Omniverse DSX Blueprint(数字孪生蓝图),我们正在提供构建世界上最高生产力AI工厂的基础,加速首次收入时间,并最大化规模和能源效率。”
Groq LPU推理芯片:与GPU构建混合算力帝国
再看非常受关注的Groq芯片。
2025年底,英伟达通过200亿美元战略授权并深度集成的Groq LPU (Language Processing Unit) 架构,是精准猎杀延迟、开启实时交互时代的“超音速截击机”。
英伟达表示,此次推出的Groq 3 LPX(机架)标志着加速计算的一个里程碑。LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽。当与Vera Rubin NVL72一起部署时,Rubin GPU和LPU通过共同计算AI模型每一层来提升解码速度,从而为每个输出Token提供计算。
同时,LPX采用全液冷设计,并基于MGX基础设施构建,将无缝集成到下一代Vera Rubin AI工厂中,并将在今年下半年提供。
进入推理时代,英伟达在GPU之外,融合了新的架构,大幅提升效率。
在技术架构上,Groq LPU抛弃了传统GPU中复杂的缓存管理、分支预测和指令重排等“猜测性”硬件设计,转而采用一种确定性流水线架构。这种设计将硬件复杂度彻底剥离至编译器层,使得数据在芯片内的流动如同精密的传送带,没有任何不可控的抖动(Jitter)。
在实战应用场景中,由英伟达技术加持的LPX机架,正成为“代理型AI(Agentic AI)”与“实时语音交互”的唯一救星。在自动驾驶辅助系统或高频交易机器人中,任何毫秒级的计算波动都可能导致决策失效,而LPU的确定性算力保证了任务执行时间永远恒定。
对于需要多步推理甚至涉及数百次模型调用的复杂Agent链条,LPU能将原本需要数分钟的串联思考缩短至数秒,使得AI能够像人类一样进行自然、流利的实时对话与协同。为了承载这一全新的计算范式,英伟达将LPU单元通过NVFusion技术无缝嵌入其庞大的CUDA生态,通过disaggregated(解耦式)架构将训练好的权重从GPU快速调度至LPU推理阵列。
在这一能力加持下,英伟达将训练和推理分离,构建了一个混合算力帝国:GPU负责在后方深耕万亿参数模型的训练与长文本预处理,而LPU阵列则在前方防线以10倍于对手的能效比与极速响应,统治着万亿级的实时推理市场,正式宣告了“推理即时化”时代的到来。
英伟达版“龙虾”面世:拥抱智能体时代
与此同时,英伟达围绕AI代理(Agent)、开放模型以及跨行业应用发布了一系列重要进展。最受开发者关注的一项发布,是面向OpenClaw社区推出的NemoClaw软件栈。近期,开源项目OpenClaw在开发者社区迅速走红,被不少业内人士视为“个人AI操作系统”的雏形。
黄仁勋也高度评价了OpenClaw。“OpenClaw向所有人打开了AI的下一个前沿,并成为历史上增长最快的开源项目,”黄仁勋表示,“与传统AI应用不同,OpenClaw的目标是让AI代理像应用程序一样持续运行,能够自主规划任务、调用工具,并完成复杂工作流程。”
在这一框架下,NemoClaw提供了一整套基础软件能力,使开发者可以通过一条命令安装NVIDIA Nemotron模型以及新发布的OpenShell运行时环境,并为AI代理增加安全与隐私控制能力。借助OpenShell提供的隔离沙箱环境,AI代理在访问工具和数据时可以遵循既定的安全策略与隐私规则,从而在提升效率的同时保证数据安全。
NemoClaw还支持本地模型与云端模型的混合调用。开发者可以在用户专用设备上运行Nemotron模型,同时通过隐私路由访问云端的前沿模型,从而在保证数据隐私的同时获得更强的计算能力。英伟达表示,NemoClaw可以运行在多种专用计算平台上,包括搭载GeForce RTX显卡的PC和笔记本电脑、RTX PRO工作站,以及DGX Station和DGX Spark系统,为全天候运行的AI代理提供稳定算力。
在推动AI代理平台发展的同时,英伟达也在加速构建开放模型生态。此次大会上,英伟达宣布成立Nemotron Coalition(Nemotron联盟),联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展。
除了生态层面的合作,英伟达也同步扩展了多条开放模型产品线,以支持AI代理、物理智能以及医疗科研等不同领域的发展。其中,NVIDIA Nemotron 3系列模型进一步强化多模态理解能力,推出Ultra、Omni和VoiceChat等多个版本。相关模型能够同时处理语言、视觉与语音信息,使AI代理不仅可以进行自然对话,还能够完成复杂推理任务,并从视频和文档等多种数据来源中提取关键信息。
除了数字世界中的AI代理,英伟达还在推动人工智能进入现实世界。此次发布的新模型包括用于机器人和自动驾驶系统的多种基础模型。例如,NVIDIA Isaac GR00T N1.7是一款面向类人机器人的视觉语言行动模型,能够支持机器人在现实环境中进行感知、推理和行动决策。
NVIDIA Alpamayo 1.5则面向自动驾驶场景,通过导航提示、多摄像头支持以及可配置摄像头参数等能力提升车辆推理能力;而即将推出的NVIDIA Cosmos 3则被称为首个统一“世界生成、物理推理和行动仿真”的世界基础模型,有望帮助机器人和自动驾驶系统在复杂环境中完成训练与决策。
从AI代理平台到开放模型生态,再到机器人、自动驾驶与生命科学等应用领域,英伟达正在逐步搭建一个覆盖数字世界与物理世界的AI技术体系。随着更多开发者和企业加入开放模型与AI代理生态,这一体系也有望进一步推动人工智能在全球范围内的创新与落地。