5 phút tổng quan bài phát biểu GTC của Huang Renxun: Doanh thu nghìn tỷ, LPU, chip vũ trụ, "nuôi tôm" một chạm

robot
Đang tạo bản tóm tắt

Vào sáng thứ Ba theo giờ Bắc Kinh, CEO của Nvidia, Huang Renxun, đã có một bài phát biểu kéo dài hơn hai tiếng rưỡi, trong đó tiến hành một cuộc “tấn công toàn diện” về các khái niệm phần cứng và phần mềm trong ngành công nghiệp AI.

Đối với thị trường vốn, ngày hôm nay cũng là một ngày thu hoạch đáng kể — các ý tưởng gây sốc dự kiến trước đó gần như đều đã trở thành hiện thực, thậm chí còn bất ngờ nhận được dự báo doanh thu chip tính toán mới nhất của Huang Renxun.

Bản tin đầy đủ: Toàn cảnh bài phát biểu “AI toàn bộ chuỗi” của Huang Renxun: Khởi động kế hoạch mới trị nghìn tỷ USD

Từ khóa quan trọng: 1 nghìn tỷ USD

Trong bài phát biểu, Huang Renxun xác nhận rằng, các chip hàng đầu của Nvidia sẽ giúp công ty đạt doanh thu 1 nghìn tỷ USD vào năm 2027.

Mức độ tích cực của câu này còn tùy thuộc vào cách mỗi nhà đầu tư hiểu. Trước đó, ông đã từng nói rằng đến cuối năm 2026, thiết bị trung tâm dữ liệu sẽ mang lại doanh số 500 tỷ USD. Dự báo mới nhất đã kéo dài kỳ vọng này thêm một năm, và tổng số tiền dự kiến cũng đã tăng gấp đôi.

Câu này cũng là khoảnh khắc khiến các nhà đầu tư cảm thấy phấn khích nhất trong toàn bộ bài phát biểu. Giá cổ phiếu Nvidia trong phiên giao dịch đã tăng hơn 4% đỉnh điểm, rồi cuối cùng đóng cửa giảm còn 1,6%.

Nền tảng nhà máy AI GPU (X)

Nvidia nhấn mạnh rằng Vera Rubin không phải là một chip đơn lẻ, mà là một nền tảng siêu máy tính AI hoàn chỉnh gồm 7 loại chip và 5 hệ thống khung máy.

Ngoài sự quen thuộc của thị trường vốn với sự kết hợp giữa GPU Rubin và CPU Vera (khung GPU Vera Rubin NVL72), điểm biến động lớn nhất tại buổi ra mắt lần này là hai sản phẩm CPU mới.

Trong đó, khung CPU Vera tích hợp 256 CPU Vera trong một khung, so với CPU truyền thống, hiệu suất tính toán tăng gấp 2 lần, tốc độ vận hành tăng 50%.

Khung LPX của Groq 3 tích hợp 256 bộ xử lý LPU, cung cấp 128GB SRAM trên chip và băng thông mở rộng 640TB/s. Khi kết hợp LPX với nền tảng Vera Rubin, khả năng xử lý inference / hiệu suất tiêu thụ năng lượng sẽ tăng gấp 35 lần. Huang Renxun cho biết, chip LPU sẽ do Samsung gia công, dự kiến các khung máy sẽ bắt đầu xuất xưởng vào nửa cuối năm nay.

Ba loại khung máy này đều sử dụng kiến trúc làm mát bằng chất lỏng.

Sản phẩm Spectrum-6 SPX được mong đợi từ lâu của các nhà đầu tư, không ngoài dự đoán, sẽ sử dụng công nghệ ghép gói quang học (CPO), mang lại hiệu suất quang cao gấp 5 lần và độ tin cậy mạng cao gấp 10 lần.

Về các sản phẩm trong tương lai, RubinUltra sẽ sử dụng cấu trúc xếp chồng theo chiều dọc trong khung Kyber, cho phép kết nối 144 GPU trong một miền NVLink duy nhất. GPU kiến trúc Feynman thế hệ tiếp theo sẽ dùng chip xếp chồng và công nghệ HBM tùy chỉnh.

Đáng chú ý, khung Kyber sẽ hỗ trợ đồng thời NVL144 và NVL1152 (mở rộng qua liên kết quang trực tiếp giữa các khung), do đó Huang Renxun đề cập rằng các nhà cung cấp các loại kết nối khác nhau cần nâng cao năng lực sản xuất.

Theo trang web chính thức của Nvidia, Kyber sẽ mở rộng thành một siêu máy tính siêu kết nối quy mô lớn NVL1152 thông qua liên kết quang trực tiếp giữa các khung, tạo nền tảng cho các tính toán AI quy mô cực lớn thế hệ tiếp theo dựa trên kiến trúc Feynman. Kyber sẽ được giới thiệu đầu tiên dưới dạng hệ thống NVL144 độc lập cùng với Vera Rubin Ultra, cung cấp cho khách hàng ba lựa chọn mở rộng quy mô của Vera Rubin Ultra NVLink: NVL72, NVL144 và NVL576 cao cấp.

Chip dữ liệu không gian

Nvidia cũng ra mắt Space-1 Vera Rubin module, mang khả năng tính toán AI cấp trung tâm dữ liệu đến các vệ tinh và trung tâm dữ liệu quỹ đạo (ODC), nhấn mạnh hướng tới inference trên quỹ đạo, trí tuệ không gian thời gian thời gian thực và các nhiệm vụ tự hành.

Công ty cũng nhấn mạnh rằng các dòng sản phẩm của mình — Jetson Orin, IGX Thor, GPU RTX PRO 6000 Blackwell và module Space-1 trong tương lai — tạo thành một kiến trúc tính toán toàn diện từ xử lý biên quỹ đạo → trung tâm dữ liệu AI mặt đất → phân tích đám mây.

Chăn nuôi tôm “một nút bấm”

Thông qua việc tiến vào ngành “tôm hùm”, Nvidia đang biến hạ tầng AI thành một lĩnh vực tăng trưởng mới.

NemoClaw được định vị là nền tảng hạ tầng của OpenClaw AI agent, có thể triển khai AI proxy chỉ với “một lệnh”, tích hợp mô hình Nemotron và môi trường chạy OpenShell, bổ sung các khả năng an toàn, quyền riêng tư và sandbox. Không chỉ đơn giản hóa việc triển khai, mà còn “an toàn trong nuôi tôm”.

Nvidia nhấn mạnh rằng NemoClaw có thể chạy trên các thiết bị như RTX PC, workstation RTX PRO, cũng như DGX Station, DGX Spark, thúc đẩy “trợ lý AI luôn trực tuyến” cần các thiết bị tính toán chuyên dụng.

Nvidia cũng công bố mở rộng hệ sinh thái mô hình mở, bao gồm ba lĩnh vực AI chính: AI agentic (đại lý AI), AI vật lý (Physical AI) và AI y tế.

DLSS 5: Khoảnh khắc GPT trong lĩnh vực đồ họa

Tại hội nghị GTC, Nvidia cũng ra mắt DLSS 5, tự hào rằng đây là bước đột phá quan trọng nhất trong lĩnh vực đồ họa máy tính kể từ khi ra mắt theo dõi tia thời gian vào năm 2018.

Huang Renxun nói: “Sau 25 năm phát minh ra shader có thể lập trình của Nvidia, chúng tôi một lần nữa định nghĩa lại đồ họa máy tính. DLSS 5 là ‘Khoảnh khắc GPT’ trong lĩnh vực đồ họa.

Hệ thống DLSS 5 mới kết hợp dữ liệu đồ họa 3D truyền thống với mô hình AI sinh tạo, có khả năng dự đoán và hoàn thiện các phần của hình ảnh, giúp GPU của Nvidia không cần phải render từng yếu tố từ đầu mà vẫn có thể tạo ra các cảnh phong phú chi tiết và nhân vật chân thực đến mức cao.

Giải thích của Tài chính Đông · Thêm phần kiến thức bổ sung

(Nguồn: Cailian Press)

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim