Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
H200 Trung Quốc thị trường chuẩn bị tăng trưởng! CUDA thúc đẩy nhu cầu mạnh mẽ NVIDIA(NVDA.US)Đế chế AI đón nhận “lợi ích gia tăng”
“Siêu ông trùm về chip AI” CEO của Nvidia (NVDA.US) là Hoàng Nhân Quân cho biết tập đoàn chip này đang triển khai lộ trình sản xuất hàng loạt bộ tăng tốc huấn luyện/suy luận AI H200 dựa trên kiến trúc Hopper do được giới thiệu từ tháng 3 năm 2022 dành cho các khách hàng tại thị trường Trung Quốc, điều này cũng cho thấy nỗ lực của công ty chip của Mỹ nhằm quay trở lại thị trường hạ tầng năng lực tính toán AI quan trọng bậc nhất tại Trung Quốc đang đạt được những tiến triển tích cực.
Không thể phủ nhận rằng, nếu H200 thực sự có thể chảy vào thị trường Trung Quốc với quy mô lớn hơn, bất chấp chi phí bổ sung 25%/chi phí thuế quan của chính phủ Mỹ, thì trong bối cảnh giá cổ phiếu Nvidia hiện đang tiếp tục đi ngang rung lắc, đây có thể được xem là một tin tốt gia tăng mang tính thực chất đối với triển vọng mở rộng cơ bản của Nvidia; xét cho cùng, dù là chỉ dẫn lợi nhuận theo quý chính thức của Nvidia hay “bản thiết kế AI siêu cấp” trị giá ít nhất 1 nghìn tỷ USD đến năm 2027 mà công ty vừa đưa ra tại hội nghị GTC hôm thứ Hai, đều chưa tính đến triển vọng tạo doanh thu từ thị trường Trung Quốc.
Sau khi Hoàng Nhân Quân có bài phát biểu trọng lượng tại hội nghị GTC của Nvidia và công bố rầm rộ cho các nhà đầu tư toàn cầu hệ thống năng lực tính toán AI của hạ tầng năng lực tính toán AI thế hệ tiếp theo—hệ kiến trúc Vera Rubin—tại một cuộc họp báo vào thứ Ba theo giờ địa phương, Hoàng Nhân Quân cho biết Nvidia đã được chính phủ Mỹ cấp phép để bán chip AI H200 cho “nhiều khách hàng lớn ở thị trường Trung Quốc”, và hiện đang trong tiến trình “khởi động lại việc sản xuất quy mô lớn của chúng tôi”. Ông nhấn mạnh triển vọng này khác hoàn toàn so với vài tuần trước.
“Chuỗi cung ứng H200 của chúng tôi đang được khởi động lại,” Hoàng Nhân Quân cho biết trong một sự kiện trong thời gian diễn ra hội nghị GTC thường niên của Nvidia tại San Jose, bang California. CEO của công ty chip này là Hoàng Nhân Quân ngày hôm trước cũng đã công bố rầm rộ một loạt sản phẩm mới trong bài phát biểu khai mạc tại hội nghị GTC, đồng thời cung cấp cho nhà đầu tư các cập nhật định hướng về mặt cơ bản tài chính.
Trong những năm gần đây, Nvidia liên tục nỗ lực khôi phục doanh số chip AI tại thị trường Trung Quốc. Do chính phủ Mỹ đã áp đặt các hạn chế xuất khẩu chip sang Trung Quốc trong thời gian dài, nên thực tế thị trường khổng lồ mà Nvidia từng dựa vào gần như đã bị đóng lại một cách căn bản, đối với các sản phẩm hạ tầng năng lực tính toán AI loại này trong dài hạn.
H200 gánh chịu áp lực thuế quan 25% từ chính phủ Mỹ
Tuy nhiên, kể từ đầu năm nay, chính quyền Trump đã bắt đầu cho phép Nvidia và đối thủ cạnh tranh mạnh nhất của họ là AMD (AMD.US) bán các phiên bản chip AI có hiệu năng thấp hơn của họ sang thị trường Trung Quốc, nhưng việc này vẫn cần có giấy phép chính thức của chính phủ Mỹ và phải chịu thuế quan 25% do chính phủ Mỹ áp thêm.
Chính phủ Mỹ cho phép Nvidia xuất khẩu H200 sang Trung Quốc trong những điều kiện nhất định và lấy mức phí/thuế 25% làm “điều kiện đổi lại”. Thỏa thuận này thực chất là một sự thỏa hiệp mang tính chính sách: vừa cho phép xuất khẩu, vừa tận dụng đó để thu lợi. Ngược lại, các sản phẩm chip AI cao cấp hơn như dòng kiến trúc Blackwell và dòng AMD Instinct MI450 vẫn được xem là công nghệ nhạy cảm hơn ở cấp độ chính sách của Mỹ, vì vậy chưa hoặc không nằm trong phạm vi cho phép xuất khẩu hiện tại. Điều này có nghĩa là chúng không hề được phép xuất khẩu, nên cũng không áp dụng chính sách thuế quan dạng này.
Cần lưu ý rằng chính sách thuế bán dẫn nhắm vào Nvidia và AMD này loại trừ các chip dùng cho trung tâm dữ liệu tại Mỹ, thiết bị tiêu dùng và các mục đích công nghiệp—tức là các mức thuế này sẽ không áp dụng cho H200/MI325X được đưa vào sử dụng trực tiếp trong nước tại Mỹ.
Hiện tại, Nvidia chưa đưa bất kỳ triển vọng doanh thu thuộc loại trung tâm dữ liệu tại thị trường Trung Quốc nào vào kịch bản dự báo tài chính của mình. Bộ phận kinh doanh trung tâm dữ liệu, hiện là bộ phận kinh doanh cốt lõi nhất của Nvidia, chính là nơi cung cấp các GPU AI thuộc kiến trúc H100/H200 và Blackwell/Blackwell Ultra để cung cấp hạ tầng năng lực tính toán AI cực kỳ mạnh mẽ cho các trung tâm dữ liệu trên toàn cầu.
Trong một cuộc gọi thu nhập cách đây không lâu, công ty cho biết tại thời điểm đó chỉ mới nhận được một giấy phép sơ bộ từ chính phủ Mỹ, cho phép vận chuyển một số lượng nhỏ chip AI H200 đến thị trường Trung Quốc. Mặc dù hiệu năng tổng hợp của H200 thua xa các chip AI thuộc kiến trúc Blackwell/Blackwell Ultra mà Nvidia hiện đang dùng để huấn luyện và chạy các mô hình AI quy mô lớn, song nó vẫn được ưa chuộng tại thị trường Trung Quốc bị ràng buộc bởi lệnh trừng phạt nhờ hiệu năng suy luận AI mạnh mẽ, hệ sinh thái CUDA đang trùm phủ toàn cầu của các nhà phát triển AI và khả năng triển khai thuận tiện.
Trong quá khứ, thị trường Trung Quốc từng chiếm một phần tư tổng doanh thu của Nvidia, còn hiện chỉ chiếm một phần rất nhỏ. Mặc dù nhu cầu đối với chip AI của Nvidia vẫn cực kỳ mạnh mẽ trên khắp các quốc gia, thì quốc gia châu Á này không nghi ngờ gì vẫn là thị trường bán dẫn đơn lẻ có quy mô lớn nhất toàn cầu, điều này khiến nó trở nên cực kỳ quan trọng đối với sự thịnh vượng cơ bản dài hạn của Nvidia.
Ngay từ tháng 12 năm ngoái, Nvidia đã nhận được sự cho phép miệng từ Tổng thống Mỹ Donald Trump để bán H200 cho một số khách hàng Trung Quốc, nhưng đến nay công ty chip này vẫn chưa xác nhận bất kỳ doanh thu H200 nào từ thị trường Trung Quốc từ các giấy phép kiểu này. Những người làm nhiệm vụ hoạch định quy định sản xuất và thuế quan ở Washington cũng đã đặt ra một số rào cản bổ sung, làm chậm tiến trình phê duyệt chính thức, đồng thời cũng khiến khả năng khôi phục hoàn toàn việc bán hàng không bị trói buộc bởi trừng phạt là không lớn.
Khi Hoàng Nhân Quân phát biểu gần đây rằng chip AI H200 hiện đang trong tiến trình “khởi động lại việc sản xuất quy mô lớn của chúng tôi”, có lẽ không lâu nữa Nvidia sẽ xác nhận dữ liệu doanh thu H200 từ thị trường Trung Quốc.
Trước đó, một số phương tiện truyền thông từng đưa tin rằng chip AI H200 vận chuyển đến thị trường Trung Quốc cần phải chịu các cuộc kiểm tra định kỳ bổ sung của Mỹ và bị áp mức thuế quan tới 25%. Các quan chức chính phủ Mỹ cũng đang cân nhắc việc giới hạn số lượng chip AI H200 mà mỗi khách hàng Trung Quốc được phép mua ở mức 75,000 chiếc, tổng lượng xuất xưởng tối đa có thể lên tới 1 triệu chiếc bộ xử lý.
Nhu cầu đối với chip AI H200 tại thị trường Trung Quốc bản thân có lẽ sẽ vô cùng mạnh mẽ; điều thực sự hạn chế việc chốt giao dịch không phải là nhu cầu, mà là chính sách và cơ chế phê duyệt của chính phủ Mỹ. Một số phương tiện truyền thông mới đây từng đưa tin rằng các công ty công nghệ Trung Quốc có nhu cầu đặt hàng chip AI H200 mà họ phụ thuộc từ năm 2026 thực tế đã vượt 2 triệu chiếc, trong khi lượng tồn kho của Nvidia khi đó chỉ khoảng 700,000 chiếc H200.
Thị trường Trung Quốc—động lực gia tăng lớn của Nvidia
Thứ Ba, giá cổ phiếu Nvidia tính đến thời điểm đóng cửa phiên giao dịch trên thị trường chứng khoán Mỹ giảm 0.7%, xuống còn 181.93 USD; qua đó, tính từ đầu năm đến nay cổ phiếu này đã giảm tích lũy 2.5%, và thấp hơn chỉ số S&P 500.
Xét từ góc độ kỳ vọng về cơ bản, nếu chip AI H200 thực sự có thể chảy vào thị trường Trung Quốc với quy mô tương đối lớn, thì đối với Nvidia đây là một tin tốt gia tăng mang tính thực chất; vì Trung Quốc từng chiếm khoảng một phần tư doanh thu của Nvidia, nhưng hiện chỉ còn một phần rất nhỏ. Ngoài ra, trong định hướng kết quả kinh doanh mạnh mẽ cho quý hiện tại mà Nvidia đưa ra vào tháng 2, không tính đến bất kỳ triển vọng doanh thu trung tâm dữ liệu Trung Quốc nào, và gần đây công ty vẫn giữ triển vọng doanh thu trung tâm dữ liệu Trung Quốc ở mức bằng 0. Điều này có nghĩa là, miễn là việc xuất xưởng H200 bắt đầu được bình thường hóa, dù không phải hoàn toàn được mở, thì cũng sẽ tạo ra một mức độ điều chỉnh tăng theo quy mô gia tăng đối với mô hình định giá của Nvidia hiện tại và kỳ vọng tăng trưởng của thị trường.
Về hiệu năng tổng hợp nền tảng, H200 so với dòng Blackwell hiện nay, đặc biệt là Vera Rubin mà Hoàng Nhân Quân vừa công bố sẽ sản xuất hàng loạt vào cuối năm, dĩ nhiên đã rõ ràng bị tụt lại ít nhất một thế hệ thậm chí hai thế hệ. H200 thuộc kiến trúc Hopper kinh điển, thông số một card là 141GB HBM3e, băng thông 4.8TB/s, khoảng 4 PFLOPS FP8; trong khi Nvidia chính thức đã công bố cho thấy GB200 NVL72 so với Hopper H200 trong một số kịch bản suy luận có thể đạt lợi thế cơ hội về hiệu năng/doanh thu lên tới 15 lần; xa hơn nữa, theo thông số chính thức, Vera Rubin là cải thiện 10 lần về hiệu năng trên mỗi watt so với Blackwell và chi phí token thấp hơn 10 lần. Nhưng dường như các điều này không ngăn cản H200 phù hợp với nhu cầu thực tế của thị trường Trung Quốc đang bị ràng buộc bởi lệnh trừng phạt của Mỹ.
H200 có mức cải thiện hiệu năng gần 6 lần so với sản phẩm chip AI trước đó mà Nvidia đã phát triển riêng cho thị trường Trung Quốc—H20; trong làn sóng suy luận AI toàn cầu đang dâng cao, thứ mà doanh nghiệp thực sự cần là một loạt chip trưởng thành có thể triển khai ngay, có thể chạy suy luận mô hình quy mô lớn, có dung lượng bộ nhớ lớn hơn và băng thông cao hơn.
Phía huấn luyện AI, nơi GPU AI của Nvidia gần như độc quyền, cần tính phổ dụng của các cụm năng lực tính toán AI mạnh hơn nữa và khả năng lặp nhanh của toàn bộ hệ thống năng lực tính toán; còn phía suy luận AI thì sau khi các công nghệ AI tiên phong được triển khai theo quy mô, lại càng coi trọng chi phí token trên một đơn vị, độ trễ và hiệu suất năng lượng. “Kỷ nguyên suy luận của trí tuệ nhân tạo đã đến,” Hoàng Nhân Quân nói hôm thứ Hai tại hội nghị GTC. “Và nhu cầu suy luận vẫn đang tăng lên,” ông bổ sung.
Vì vậy, 141GB HBM3e của H200 vẫn rất hấp dẫn đối với các nhu cầu như ngữ cảnh dài, batch quy mô lớn, tăng cường truy hồi (retrieval augmented) và các cụm suy luận AI doanh nghiệp quy mô lớn nhưng hiệu quả cao; cộng với động lực nhu cầu mạnh mẽ do hệ sinh thái CUDA mang lại, đối với thị trường Trung Quốc, điều này vẫn là “năng lực tính toán cấp cao để sử dụng được trong điều kiện bị hạn chế”. Trong khi đó, CUDA, CUDA-X, sự thích ứng với mô hình sẵn có, chuỗi công cụ phát triển và kinh nghiệm vận hành bảo trì lại làm giảm đáng kể chi phí chuyển đổi và triển khai của khách hàng Trung Quốc.
Đối với dòng vốn của các tổ chức tại phố Wall, đây không phải là câu chuyện hoành tráng kiểu “Nvidia lật kèo nhờ thị trường Trung Quốc”. Thay vào đó, bên cạnh đường lối hạ tầng năng lực tính toán AI toàn cầu vốn đã rất mạnh, Nvidia còn có thêm một phần không gian tăng trưởng nhu cầu từ thị trường Trung Quốc có thể bị đánh giá thấp nghiêm trọng.
Tại hội nghị GTC lúc rạng sáng ngày 17 tháng 3 theo giờ Bắc Kinh, CEO Nvidia là Hoàng Nhân Quân đã thể hiện “bản đồ siêu vĩ quan sinh thu siêu cấp về năng lực tính toán AI” trong lĩnh vực hạ tầng năng lực tính toán AI của Nvidia. Ông cho biết với các nhà đầu tư toàn cầu, dưới sự thúc đẩy của nhu cầu mạnh mẽ đối với năng lực tính toán của GPU thuộc kiến trúc Blackwell và nhu cầu còn “bùng nổ” hơn nữa của hệ thống năng lực tính toán AI thuộc kiến trúc Vera Rubin sắp được sản xuất hàng loạt, quy mô doanh thu trong tương lai của Nvidia trong lĩnh vực chip AI có thể ít nhất sẽ đạt 1 nghìn tỷ USD vào năm 2027, cao xa hơn rất nhiều so với “bản thiết kế hạ tầng năng lực tính toán AI” mà hội nghị GTC lần trước đã đưa ra là đạt 5000 tỷ USD vào năm 2026.
Khi quy mô mô hình, các đường suy luận và tải công việc Agentic AI dạng đa phương thức/đại lý (multi-modal/agentic) đẩy tiêu hao năng lực tính toán mở rộng theo hàm số mũ, các “đại bản doanh” chi tiêu vốn của các gã khổng lồ công nghệ càng có xu hướng tập trung vào hạ tầng năng lực tính toán AI. Các nhà đầu tư toàn cầu cũng tiếp tục bám theo “câu chuyện thị trường bò về AI” liên quan đến kỳ vọng giao hàng và nâng cấp mới của các cụm năng lực tính toán AI của Nvidia, Google TPU và các sản phẩm thế hệ mới của AMD, như một trong những câu chuyện đầu tư về triển vọng vĩ mô được đảm bảo chắc chắn nhất trên thị trường chứng khoán toàn cầu. Điều này cũng đồng nghĩa với việc các chủ đề đầu tư gắn chặt với huấn luyện/suy luận AI như điện năng, hệ thống làm mát chất lỏng và tản nhiệt, chuỗi cung ứng quang kết nối (optical interconnect), v.v. sẽ tiếp tục nằm trong nhóm “đầu tư nóng bỏng nhất” của thị trường chứng khoán khi các nhà dẫn dắt về năng lực tính toán AI như Nvidia, AMD và Broadcom, TSMC, Micron đối mặt với sự không chắc chắn của tình hình địa chính trị ở Trung Đông.
Theo quan điểm của các ông lớn phố Wall như Morgan Stanley, Citigroup, Loop Capital và Wedbush, làn sóng đầu tư hạ tầng trí tuệ nhân tạo toàn cầu—lấy phần cứng năng lực tính toán AI làm lõi—chưa hề kết thúc, hiện mới chỉ là giai đoạn bắt đầu. Dưới sự thúc đẩy của “cơn bão nhu cầu năng lực tính toán ở đầu vào suy luận AI” chưa từng có, quy mô của làn sóng đầu tư hạ tầng AI toàn cầu trong vòng này kéo dài đến năm 2030 có thể đạt 3 nghìn tỷ đến 4 nghìn tỷ USD.