Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Tối thiểu doanh thu 1 nghìn tỷ đô la! Bài phát biểu của Huang Renxun gây sốt GTC, Nvidia tái chiếm quyền kiểm soát sinh tử trong AI (kèm theo bản ghi chép 20 nghìn ký tự)
Bài | Chuyên mục “Quan sát Thung lũng Silicon” của Zheng Jun
Trung tâm SAP San Jose, Thung lũng Silicon, gần như đã kín chỗ.
Thường ngày là sân nhà của đội hockey NHL San Jose Sharks, hôm nay đã biến thành “Mecca AI” hàng năm. Các nhà phát triển, kỹ sư, doanh nghiệp mua hàng và nhà đầu tư từ 190 quốc gia chen chúc khắp các chỗ ngồi, tất cả đều hướng ánh mắt về một hình bóng quen thuộc: người đàn ông trung niên yêu thích áo khoác da.
CEO Nvidia Huang Renxun bước lên sân khấu với câu đầu tiên là: “It all starts here.” — Mọi thứ bắt đầu từ đây. Trong hơn hai giờ tiếp theo, ông đã thể hiện rõ trọng lượng của câu nói này. Ông cười nói rằng hôm nay nơi đây giống như trận Super Bowl vậy.
Ông dự đoán thế hệ mới của chip tăng tốc AI của Nvidia, kiến trúc Blackwell, cùng sản phẩm Rubin thế hệ tiếp theo, đến cuối năm 2027 sẽ tạo ra ít nhất 1 nghìn tỷ USD doanh thu. Con số này vượt xa dự báo 500 tỷ USD doanh số mà Huang đưa ra vào tháng 10 năm 2025, một lần nữa nhấn mạnh làn sóng đầu tư hạ tầng AI vẫn đang mở rộng nhanh chóng.
Đặt hàng nghìn tỷ: Tái định vị câu chuyện về nhu cầu
Số liệu trực tiếp gây chấn động trong bài phát biểu này đến từ phía đơn hàng. Huang dự đoán, đến cuối năm sau, tổng giá trị đơn hàng mua các thế hệ kiến trúc Blackwell và Vera Rubin của Nvidia sẽ vượt qua 1 nghìn tỷ USD. Con số này gấp đôi dự báo 500 tỷ USD của Nvidia năm ngoái.
Trước đó, Nvidia đã nâng dự báo. Tháng trước, CFO Colette Kress từng gợi ý trong cuộc họp báo tài chính rằng doanh số chip sẽ vượt dự kiến trước đó, và hôm nay Huang đã cụ thể hóa điều này thành con số rõ ràng.
Bối cảnh của sự tự tin này là: báo cáo tài chính mới nhất của Nvidia cho thấy doanh thu trung tâm dữ liệu quý đạt 62.3 tỷ USD, tăng 75% so với cùng kỳ. Tuy nhiên, cổ phiếu Nvidia không đi theo chiều hướng tăng, ngược lại đã điều chỉnh giảm khoảng 11% kể từ đỉnh lịch sử 207 USD vào tháng 10 năm ngoái. Thị trường vốn còn nhiều nghi ngờ về khả năng Nvidia duy trì tốc độ tăng trưởng đến năm 2027, và không gian tăng trưởng này quyết định trực tiếp đến đà tăng của cổ phiếu. Con số nghìn tỷ của Huang đã phản hồi trực tiếp những “lo lắng vô căn cứ” này.
Sản phẩm cốt lõi: Ra mắt toàn diện Vera Rubin
Vera Rubin là nhân vật chính trong bài phát biểu này, nhưng Huang phải chờ đến hơn một tiếng rưỡi mới chính thức công bố. Hệ thống này đã được tiết lộ tại sự kiện ở Washington cuối năm ngoái, tại CES 2026 đầu năm nay còn trình diễn chi tiết hơn, hôm nay mới chính thức ra mắt đầy đủ. Các điểm nổi bật:
Vera Rubin NVL72 là cấu hình cao cấp hiện tại, gồm 72 GPU kết nối qua NVLink 6, toàn bộ hệ thống dùng làm mát bằng dung dịch. Huang đặc biệt nhấn mạnh: “Tất cả dây cáp đều biến mất” — thay bằng khay module, thời gian lắp đặt từ hai giờ của Blackwell rút ngắn còn 5 phút. Hệ thống vận hành bằng nước nóng 45 độ. Huang gọi đây là “động cơ của kỷ nguyên AI siêu nạp”.
Rubin Ultra mở rộng lên 144 GPU trong một tủ rack, dùng khung Kyber mới, lắp theo chiều dọc, phía trước xử lý tính toán, phía sau kết nối NVLink. So với thế hệ Hopper, nền tảng Vera Rubin có thể đạt throughput suy luận lý thuyết lên tới 7 triệu tokens/giây, trong khi x86 Hopper chỉ khoảng 2 triệu. Huang gọi đây là “biểu đồ quan trọng nhất của nhà máy AI tương lai”, và phân chia khả năng suy luận thành bốn cấp dịch vụ: Free, High, Premium, Ultra, dựa trên tokens/giây, “Token là hàng hóa mới”.
CPU Vera sẽ được bán riêng như một sản phẩm độc lập, tạo nguồn doanh thu riêng cho Nvidia trong thị trường CPU. Dự kiến, lĩnh vực này sẽ đóng góp hàng tỷ USD doanh thu. Hệ thống Vera Rubin đầu tiên đã chạy trên đám mây Azure của Microsoft, tiến trình lấy mẫu thuận lợi — trái ngược với các vấn đề về tỷ lệ thành công ban đầu của thế hệ Blackwell.
Mua lại Groq: LPU chính thức tích hợp
Trước Giáng sinh năm ngoái, Nvidia đã hoàn tất mua lại Groq với giá khoảng 20 tỷ USD, tiếp nhận đội ngũ cốt lõi gồm sáng lập viên Jonathan Ross. Hôm nay, Huang công bố sản phẩm công nghệ của thương vụ này: Groq 3 LPU (đơn vị xử lý ngôn ngữ).
Groq 3 hướng tới là bộ tăng tốc suy luận Rubin chứ không phải thay thế GPU. Về kiến trúc, mô hình lớn (LLM) gồm hai giai đoạn: prefill (tải dữ liệu đầu vào) đòi hỏi tính toán cao, decode (tạo token đầu ra) đòi hỏi băng thông lớn. GPU Nvidia phù hợp với prefill có throughput cao, còn LPU của Groq tối ưu cho decode với băng thông 22 TB/s HBM4, nhanh gấp khoảng 7 lần GPU cùng loại. Hai hệ thống phối hợp qua kiến trúc Disaggregated Inference: GPU xử lý prefill, LPU xử lý decode, dưới sự điều phối chung của hệ thống Dynamo của Nvidia.
Nvidia đã ra mắt khung rack riêng cho LPX, chứa 256 LPU Groq 3 trong một tủ, đặt cạnh rack Vera Rubin NVL72, kết nối qua Spectrum-X tùy chỉnh. Mỗi LPU có 500MB bộ nhớ trên chip, do Samsung gia công, dự kiến giao hàng quý III. Dữ liệu cho thấy khi kết hợp Vera Rubin NVL72 và Groq 3 LPX, khả năng xử lý tokens/giây trên mỗi megawatt tăng 35 lần so với Blackwell.
Các lãnh đạo Nvidia trước thềm ra mắt cho biết, kiến trúc này giúp công ty cung cấp dịch vụ suy luận siêu thấp độ trễ với hàng nghìn tokens mỗi giây cho các mô hình ngôn ngữ lớn, lĩnh vực trước đây do các chip chuyên dụng như Cerebras, SambaNova chiếm lĩnh.
Chính thức xây dựng AI đại lý của Nvidia
Ngoài phần cứng, Huang dành nhiều thời gian để trình bày về định hướng phần mềm của Nvidia. Điểm nhấn là làn sóng AI đại lý (AI Agent) hiện nay, cùng nền tảng mã nguồn mở OpenClaw nổi bật gần đây. Ông ca ngợi OpenClaw là dự án mã nguồn mở thành công nhất từ trước đến nay.
Huang so sánh OpenClaw như hệ điều hành: “Nó chính là hệ điều hành cho các máy tính đại lý, giống như Windows đã biến máy tính cá nhân thành khả thi.” Ông còn tuyên bố “mọi công ty trên thế giới đều cần có chiến lược OpenClaw”, so sánh với việc doanh nghiệp phải chấp nhận Linux hoặc HTTP/HTML trong quá khứ.
Nvidia ra mắt NemoClaw — bộ phần mềm tham khảo mã nguồn mở doanh nghiệp dành cho OpenClaw. Chức năng chính là bảo mật doanh nghiệp: giúp các công ty bảo vệ dữ liệu nhạy cảm khi triển khai AI đại lý, tránh rò rỉ thông tin sở hữu trong quá trình vận hành tự chủ. Nhóm an ninh của Microsoft cũng hợp tác với Nvidia, cùng phát triển khả năng phòng thủ tự thích ứng dựa trên Nemotron và NemoClaw.
Ngoài ra, Nvidia còn định vị các sản phẩm như DGX Spark và DGX Station như nền tảng phát triển và triển khai AI đại lý tại chỗ, đưa khả năng của NemoClaw vào các biên giới.
Lộ trình: Từ Feynman đến trung tâm dữ liệu vũ trụ
Về lộ trình phần cứng, Huang lần đầu phác thảo kiến trúc Feynman thế hệ tiếp theo sau Vera Rubin, dự kiến ra mắt năm 2028. Feynman sẽ gồm GPU hoàn toàn mới, LPU thế hệ mới LP40, CPU mới đặt tên Rosa (tưởng nhớ nhà vật lý Rosalind Franklin), kết hợp DPU BlueField-5, NIC CX10, nền tảng kết nối Kyber hỗ trợ cáp đồng và quang hợp khối (CPO).
Điều bất ngờ hơn, ông công bố Nvidia đang phát triển phiên bản Vera Rubin dành cho không gian — Space-1, mục tiêu là triển khai trung tâm dữ liệu AI trên quỹ đạo. Ông thừa nhận môi trường không gian có thách thức chính là chống bức xạ, nhưng Nvidia đã bắt đầu nghiên cứu. Điều này phù hợp với chiến lược của SpaceX, Google, Amazon trong trung tâm dữ liệu vũ trụ.
Ngoài ra, Nvidia giới thiệu thiết kế tham khảo DSX AI Factory, kết hợp Omniverse DSX Blueprint, giúp doanh nghiệp lập kế hoạch, mô phỏng và quản lý vòng đời trung tâm dữ liệu AI quy mô lớn. AWS hôm đó công bố mở rộng hợp tác, cam kết triển khai hơn 1 triệu GPU Nvidia, gồm Blackwell, Rubin và Groq 3 LPU, dự kiến bắt đầu trong năm nay trên toàn cầu.
Xe tự hành và robot: mở rộng đối tác quy mô lớn
Xe tự hành là chủ đề thứ ba trong bài phát biểu. Huang công bố hợp tác Drive AV của Nvidia với Uber đã bước vào thực thi: Uber sẽ triển khai đội xe tự hành do Nvidia hỗ trợ tại 28 thành phố trên 4 châu lục trước năm 2028, các thành phố đầu tiên là Los Angeles và San Francisco, bắt đầu từ 2027.
Cùng lúc, các hãng xe như BYD, Geely, Nissan, Hyundai đang phát triển xe L4 dựa trên nền tảng Drive Hyperion của Nvidia. Isuzu và Tier IV của Trung Quốc đang phát triển xe buýt tự hành dùng chip AGX Thor của Nvidia. Huang trích lời: “Thời điểm xe tự hành ChatGPT đã đến.”
Trong lĩnh vực robot, Olaf của Disney (từ phim Frozen) xuất hiện, tương tác đối thoại với Huang. Robot này được huấn luyện trong môi trường mô phỏng của Nvidia, thể hiện ứng dụng AI vật lý (Physical AI) trong giải trí.
Có thể chính Patrick Moorhead, nhà phân tích hàng đầu của Moor Insights & Strategy, nói chính xác nhất: Nvidia không còn là một công ty chip nữa, mà là một nền tảng.
Trong hơn một tiếng rưỡi đầu, Huang chủ yếu nói về nền tảng, hạ tầng. Ông liên tục nhấn mạnh Nvidia đã không còn là một công ty chip, mà là một nền tảng hệ sinh thái, là một doanh nghiệp hạ tầng. Bài phát biểu hôm nay cho thấy Nvidia đã mở rộng chiến lược đến đào tạo, suy luận, điều phối, an toàn phần mềm, AI vật lý, tự hành, robot và cả trung tâm dữ liệu vũ trụ.
Cụ thể hơn, Nvidia đang xây dựng hàng rào phòng thủ cạnh tranh qua ba cấp độ: toàn bộ hệ sinh thái phần cứng (GPU + LPU + CPU + DPU + mạng), hệ sinh thái phần mềm (CUDA, NemoClaw, Dynamo, Omniverse), và ứng dụng ngành nghề ( ô tô, y tế, công nghiệp, giải trí). Trong đó, phần mềm ngày càng trở thành lợi thế cạnh tranh rõ rệt — chính là phần khó sao chép nhất của các đối thủ như AMD.
Việc mở rộng đối tác lớn trong tự hành và tích hợp nền tảng代理 (Agent platform) của OpenClaw cũng cho thấy Nvidia đang mở rộng nguồn tăng trưởng từ dữ liệu trung tâm sang hạ tầng ứng dụng AI rộng hơn. Huang mô tả trong phần cuối bài phát biểu: AI sẽ từ công cụ tạo văn bản hiện tại tiến hóa thành hệ thống tự hành có khả năng suy luận, lập kế hoạch, thực thi nhiệm vụ, và nền tảng cung cấp sức mạnh tính toán cho các hệ thống này chính là trung tâm dữ liệu AI dựa trên “nhà máy token” — Nvidia muốn trở thành nhà cung cấp giải pháp toàn diện cho “nhà máy này”.
Giá cổ phiếu và phản ứng của các nhà phân tích: Xác nhận niềm tin, nhưng còn nhiều khác biệt
Trong suốt buổi phát biểu, giá cổ phiếu Nvidia hôm nay đóng cửa tăng khoảng 1.65%, từ mức 181 USD lên khoảng 183 USD, khối lượng giao dịch đạt 217 triệu cổ phiếu, cao hơn trung bình ngày 177 triệu, vốn hóa đạt 4.45 nghìn tỷ USD, cho thấy GTC ít nhất trong ngắn hạn đã thúc đẩy niềm tin thị trường.
Nhà phân tích Dan Ives của Wedbush phản ứng tích cực nhất sau sự kiện này. Ông gọi Huang là “cha đẻ AI”, coi GTC lần này như “tin thần cho các nhà đầu tư công nghệ”, nói Nvidia “đứng trên đỉnh AI”. Ives còn nhấn mạnh, bài phát biểu này chứng minh “cách mạng AI đang tăng tốc chứ không giảm tốc”, dự báo nhu cầu nghìn tỷ USD là từ mọi phía: doanh nghiệp, chính phủ và các công ty gốc AI cùng đẩy mạnh. Ông ước tính, mỗi đô la chi tiêu vào chip Nvidia sẽ tạo ra hiệu ứng nhân 8-10 đô la trong phần mềm, an ninh mạng, năng lượng và trung tâm dữ liệu.
Nhà phân tích C.J. Muse của Cantor Fitzgerald đã đặt mục tiêu giá 300 USD trước đó và duy trì xếp hạng mua, cho rằng “chúng ta đang ở điểm tái lập niềm tin”. Ông dự đoán, thông tin của Huang sẽ củng cố vị thế Nvidia như “công ty hạ tầng AI toàn hệ thống”, đặc biệt là về dự báo nhu cầu năm 2027.
Gene Munster của Deepwater trước đó nhận định thận trọng hơn: Thách thức thực sự không nằm ở ngày hôm nay, mà là lo ngại dài hạn về tốc độ tăng trưởng chậm lại sau 2027 — liên quan đến câu chuyện “chi tiêu vốn AI đã gần đỉnh chưa”.
Trong bối cảnh bong bóng AI hai năm qua và lo ngại về đầu tư hạ tầng, hôm nay Huang đã truyền một liều thuốc tinh thần mạnh mẽ cho toàn ngành, vẽ ra một tầm nhìn rộng lớn hơn về toàn bộ hệ sinh thái AI thực tế. Và trong hệ sinh thái AI tương lai này, Nvidia giữ vị trí trung tâm vững chắc.
Bong bóng AI? Người đàn ông trung niên trong áo da nghĩ rằng mới chỉ bắt đầu thôi.
【Toàn văn bài phát biểu đầy đủ】
Chào mừng đến GTC! Tôi chỉ muốn nhắc mọi người rằng đây là một hội nghị công nghệ. Rất vui khi thấy có hàng nghìn người xếp hàng từ sáng sớm. Tại GTC, chúng ta sẽ thảo luận về công nghệ và nền tảng. Nvidia có ba nền tảng chính, có thể mọi người nghĩ rằng chúng ta chủ yếu nói về CUDA X, nhưng hệ thống mới của chúng ta là nền tảng thứ hai, còn hiện tại chúng ta còn có nền tảng mới tên là AI Factories. Chúng ta sẽ bàn về tất cả, nhưng quan trọng nhất là hệ sinh thái.
Trước tiên, tôi muốn cảm ơn MC của chương trình trước, Sarah Go và Alfred Lin, cùng Gavin Baker của Sequoia Capital — quỹ đầu tư mạo hiểm đầu tiên của Nvidia. Là nhà đầu tư chính, họ am hiểu công nghệ, nắm bắt xu hướng ngành, có hệ sinh thái công nghệ rộng lớn. Cũng cảm ơn các VIP khách mời tôi tự tay mời gọi, cùng tất cả các công ty tài trợ đã có mặt hôm nay. Nvidia là một công ty nền tảng, sở hữu công nghệ, nền tảng và hệ sinh thái phong phú. Hôm nay, có mặt tại đây đại diện cho ngành công nghiệp trị giá hàng nghìn tỷ USD toàn cầu, gồm 450 công ty tài trợ, hơn 1.000 hội thảo kỹ thuật, 2.000 diễn giả. Hội nghị này sẽ bao quát mọi tầng của kiến trúc AI gồm năm lớp, từ hạ tầng đất đai, điện, xây dựng, đến chip, nền tảng, mô hình, và cuối cùng là các ứng dụng giúp toàn ngành bứt phá.
Mọi thứ bắt đầu từ đây, năm nay là kỷ niệm 20 năm CUDA ra đời. Trong 20 năm qua, chúng tôi đã không ngừng phát triển kiến trúc này. Phát minh mang tính cách mạng này cho phép viết mã theo kiểu SIMD bằng đa luồng, dễ lập trình hơn SIMD truyền thống. Gần đây, chúng tôi còn thêm Tiles để giúp các nhà phát triển lập trình cho Tensor Core và các toán học nền tảng AI ngày nay. Hiện có hàng nghìn công cụ, trình biên dịch, framework, thư viện, và hàng trăm nghìn dự án mã nguồn mở tích hợp sâu vào hệ sinh thái CUDA. Điều khó nhất là mở rộng quy mô lắp đặt.
Chúng tôi đã dành 20 năm xây dựng hàng tỷ GPU và hệ thống tính toán chạy CUDA trên toàn cầu, phủ sóng mọi đám mây và công ty máy tính, phục vụ gần như mọi ngành nghề. Quy mô lắp đặt CUDA chính là động lực thúc đẩy vòng quay tăng tốc. Quy mô này thu hút các nhà phát triển, họ sáng tạo ra các thuật toán đột phá như deep learning, mở ra thị trường mới, xây dựng hệ sinh thái mới, thu hút nhiều công ty tham gia, tạo ra quy mô lắp đặt lớn hơn nữa. Hiện tượng này đang ngày càng nhanh, lượng tải xuống thư viện Nvidia tăng chóng mặt. Hiệu ứng này không chỉ giúp nền tảng tính toán hỗ trợ nhiều ứng dụng, đột phá, mà còn kéo dài tuổi thọ của hạ tầng.
Với nhiều ứng dụng chạy trên CUDA của Nvidia, chúng tôi hỗ trợ mọi giai đoạn của vòng đời AI và mọi nền tảng xử lý dữ liệu, thúc đẩy các giải pháp dựa trên nguyên lý khoa học. Phạm vi ứng dụng rộng lớn này khiến một khi lắp đặt GPU Nvidia, vòng đời sử dụng rất dài. Đó là lý do các kiến trúc Ampere ra đời từ sáu năm trước vẫn giữ giá trên đám mây. Quy mô lớn, hiệu ứng đẩy, cộng với cộng đồng phát triển rộng khắp, cùng các phần mềm liên tục cập nhật, giúp giảm chi phí tính toán. Tăng tốc tính toán giúp các ứng dụng nhanh hơn, và khi chúng tôi liên tục cập nhật phần mềm trong vòng đời, người dùng không chỉ nhận được hiệu năng ban đầu mà còn giảm chi phí liên tục nhờ tăng tốc. Với quy mô lớn như vậy, các bản cập nhật mới của Nvidia có thể giúp hàng triệu GPU tương thích, phủ sóng toàn cầu. Sự kết hợp linh hoạt này mở rộng ảnh hưởng của kiến trúc Nvidia, thúc đẩy tăng trưởng, giảm chi phí, tạo ra cơ hội mới — đó chính là giá trị cốt lõi của CUDA.
Tuy nhiên, hành trình của chúng tôi bắt đầu từ 25 năm trước với GeForce. GeForce là chiến dịch marketing vĩ đại nhất của Nvidia, nhiều người lớn lên cùng nó. Trước khi các bạn đủ khả năng tự mua, cha mẹ đã bỏ tiền để các bạn trở thành khách hàng của Nvidia, rồi đến khi trở thành nhà khoa học máy tính xuất sắc, các bạn mới thực sự phát triển. GeForce đã tạo ra Nvidia ngày nay và nuôi dưỡng CUDA. 25 năm trước, chúng tôi đã phát minh ra bộ tăng tốc có thể lập trình đầu tiên trên thế giới — shader pixel, để biến tăng tốc thành khả năng lập trình. Năm năm sau, CUDA ra đời. Chúng tôi đã bỏ toàn bộ lợi nhuận của công ty để phổ biến CUDA trên mọi máy tính nhờ GeForce. Trải qua 20 năm và 13 thế hệ sản phẩm, CUDA đã trở thành phần không thể thiếu. 10 năm trước, chúng tôi ra RTX, thiết kế lại hoàn toàn kiến trúc cho kỷ nguyên đồ họa máy tính hiện đại. GeForce đã đưa CUDA ra thế giới, giúp nhiều người tiên phong nhận ra GPU là người bạn đồng hành đắc lực trong tăng tốc deep learning, mở ra cơn sốt AI. 10 năm trước, chúng tôi quyết định tích hợp công nghệ shader có thể lập trình và đưa vào phần cứng theo dõi tia sáng (ray tracing). Khi đó, chúng tôi đã nghĩ AI sẽ làm thay đổi hoàn toàn đồ họa máy tính. Giờ đây, như GeForce đã mang AI đến thế giới, AI sẽ quay lại làm thay đổi đồ họa máy tính.
Hôm nay, tôi sẽ trình diễn công nghệ đồ họa thế hệ mới — neural rendering, sự kết hợp giữa đồ họa 3D và trí tuệ nhân tạo, chính là DLSS 5.0. Chúng tôi kết hợp đồ họa 3D có thể kiểm soát, dữ liệu cấu trúc của thế giới ảo và AI sinh tạo dựa xác suất. Dữ liệu cấu trúc được kiểm soát chặt chẽ, kết hợp AI sinh tạo, tạo ra nội dung đẹp mắt, ấn tượng và có thể kiểm soát. Ý tưởng này sẽ liên tục ảnh hưởng đến các ngành, trong đó dữ liệu cấu trúc chính là nền tảng của AI đáng tin cậy.
Tiếp theo, chúng ta sẽ đi sâu vào dữ liệu cấu trúc. Các nền tảng lớn như SQL, Spark, Pandas, Velox, Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery đều xử lý DataFrame. DataFrame giống như bảng tính khổng lồ, chứa các giá trị thực của doanh nghiệp và hoạt động. Trước đây, chúng tôi đã cố gắng tăng tốc xử lý dữ liệu cấu trúc để doanh nghiệp vận hành hiệu quả hơn với chi phí thấp hơn. Trong tương lai, AI sẽ dùng tốc độ cực nhanh để truy cập các cơ sở dữ liệu cấu trúc này. Ngoài ra còn có các cơ sở dữ liệu phi cấu trúc như vector database, PDF, video, bài phát biểu — chiếm tới 90% dữ liệu tạo ra hàng năm. Do thiếu phương pháp đánh chỉ mục đơn giản và khó hiểu ý nghĩa, các dữ liệu này chưa thể truy vấn và tìm kiếm hiệu quả.
Giờ đây, chúng tôi để AI giải quyết vấn đề này. Nhờ công nghệ cảm nhận đa mô thức và hiểu biết, AI có thể đọc PDF, hiểu nội dung và đưa vào hệ thống tìm kiếm, truy vấn lớn hơn. Để làm điều này, Nvidia tạo ra hai thư viện nền tảng: cuDF cho dữ liệu cấu trúc, cuVS cho lưu trữ vector và dữ liệu phi cấu trúc AI. Hai nền tảng này sẽ trở thành các nền tảng quan trọng nhất trong tương lai, và chúng tôi đang tích hợp sâu vào hệ thống xử lý dữ liệu phức tạp toàn cầu.
Hôm nay, chúng tôi sẽ công bố một số hợp tác quan trọng. IBM, người sáng tạo ra ngôn ngữ đặc thù SQL, đang dùng cuDF để tăng tốc WatsonX. 60 năm trước, IBM ra System/360 mở ra kỷ nguyên tính toán, sau đó SQL và kho dữ liệu trở thành nền tảng của doanh nghiệp hiện đại. Hôm nay, IBM và Nvidia hợp tác dùng thư viện GPU để tăng tốc WatsonX.data, định nghĩa lại xử lý dữ liệu trong kỷ nguyên AI. Do hệ thống xử lý dữ liệu dựa trên CPU hiện tại không đáp ứng được yêu cầu truy cập nhanh các tập dữ liệu khổng lồ của AI, các doanh nghiệp phải chuyển đổi. Ví dụ, Nestlé mỗi ngày phải ra hàng nghìn quyết định chuỗi cung ứng, chỉ có thể cập nhật dữ liệu hàng ngày trên CPU, trong khi trên GPU Nvidia tăng tốc, tốc độ tăng gấp 5 lần, chi phí giảm 83%.
Thời đại tăng tốc tính toán của AI đã đến. Chúng tôi không chỉ đẩy nhanh xử lý dữ liệu đám mây mà còn thúc đẩy triển khai tại chỗ. Các nhà sản xuất hệ thống và lưu trữ hàng đầu thế giới như Dell hợp tác tích hợp cuDF và cuVS vào nền tảng dữ liệu AI của họ để đón đầu kỷ nguyên AI. Chúng tôi còn hợp tác với Google Cloud để tăng tốc Vertex AI và BigQuery. Trong hợp tác với Snapchat, chúng tôi giảm chi phí tính toán gần 80%. Khi tăng tốc tính toán và xử lý dữ liệu, bạn không chỉ có lợi thế về tốc độ và quy mô, mà còn về chi phí. Định luật Moore dự kiến hiệu năng mỗi vài năm sẽ tăng gấp 1.5 lần, nhưng giờ đã yếu dần. Tăng tốc tính toán giúp chúng ta vượt qua giới hạn đó.
Là một công ty thuật toán, Nvidia dựa vào khả năng tối ưu thuật toán và quy mô lắp đặt lớn để liên tục giảm chi phí tính toán, mở rộng quy mô và tăng tốc độ. Chúng tôi xây dựng nền tảng tăng tốc, cung cấp thư viện như RTX, cuDF, cuVS, rồi tích hợp vào các dịch vụ đám mây và OEM toàn cầu. Mô hình hợp tác này lặp lại trên Google Cloud, Snapchat và các nền tảng khác. Chúng tôi tự hào về các công trình như JAX, XLA, PyTorch. Chúng tôi là nền tảng duy nhất có thể hoạt động xuất sắc trên tất cả các framework này. Các khách hàng như Baseten, CrowdStrike, Puma, Salesforce không chỉ là khách hàng mà còn là nhà phát triển.
Chúng tôi tích hợp công nghệ Nvidia vào sản phẩm của họ, đưa họ lên đám mây. Mối quan hệ với các nhà cung cấp dịch vụ đám mây là để mang lại khách hàng. Hầu hết các nhà cung cấp dịch vụ đám mây đều hợp tác với chúng tôi vì chúng tôi liên tục cung cấp tăng tốc cho mọi người. Năm nay, tôi rất vui khi thông báo sẽ đưa OpenAI vào AWS, thúc đẩy tiêu thụ đám mây của AWS và mở rộng khả năng tính toán của OpenAI.
Tại AWS, chúng tôi đẩy nhanh EMR, SageMaker, Bedrock. Nvidia hợp tác sâu với AWS, là đối tác đám mây đầu tiên của chúng tôi. Với Microsoft Azure, chúng tôi đã xây dựng và cài đặt máy tính Nvidia A100 đầu tiên, mở đường cho hợp tác thành công với OpenAI sau này. Hợp tác với Azure đã lâu, không chỉ để tăng tốc dịch vụ đám mây và Bing Search, mà còn hợp tác sâu với AIFoundry. Khi AI mở rộng toàn cầu, hợp tác các vùng Azure trở nên cực kỳ quan trọng. Chúng tôi cung cấp tính năng cốt lõi là tính toán bí mật (Confidential Computing). Tính năng này đảm bảo người vận hành không thể truy cập hoặc xem dữ liệu, mô hình. GPU Nvidia là GPU đầu tiên thế giới hỗ trợ tính năng này, có thể triển khai an toàn các mô hình quý giá như OpenAI, Anthropic trên nhiều đám mây và khu vực khác nhau. Tất cả nhờ công nghệ tính toán bí mật.
Trong hợp tác khách hàng, Synopsis là đối tác quan trọng, chúng tôi đang thúc đẩy toàn bộ quy trình EDA và CAU của họ, triển khai trên Azure. Chúng tôi là nhà cung cấp đầu tiên của Oracle, cũng là khách hàng AI đầu tiên của họ. Tôi tự hào đã giới thiệu khái niệm AI đám mây cho Oracle, trở thành khách hàng đầu tiên của họ, từ đó Oracle bắt đầu phát triển mạnh mẽ. Chúng tôi đã hợp tác với nhiều đối tác như Quark, Cohere, Fireworks, OpenAI. CoreWeave là đám mây AI nguyên bản đầu tiên thế giới, xây dựng để cung cấp và lưu trữ GPU trong thời đại tính toán tăng tốc. Họ có khách hàng xuất sắc và tốc độ tăng trưởng nhanh.
Tôi rất kỳ vọng vào nền tảng của Palantir và Dell. Chúng tôi cùng nhau xây dựng nền tảng AI mới — Palantir Ontology. Nền tảng này có thể triển khai hoàn toàn tại chỗ, ở bất kỳ quốc gia nào, trong bất kỳ khu vực cách ly nào (air-gapped). AI có thể triển khai ở bất cứ đâu. Nếu không có khả năng tính toán bí mật của chúng tôi, không có hệ thống toàn diện và khả năng xây dựng toàn bộ hệ sinh thái tăng tốc, điều này không thể thực hiện. Những ví dụ này thể hiện mối quan hệ hợp tác đặc biệt của chúng tôi với các nhà cung cấp đám mây toàn cầu, tất cả đều có mặt hôm nay, tôi chân thành cảm ơn các bạn.
Nvidia là một công ty tích hợp dọc nhưng mở rộng ngang, điều này là chủ đề xuyên suốt. Lý do rất đơn giản: tăng tốc tính toán không chỉ là chip hay hệ thống, mà cốt lõi là tăng tốc ứng dụng. Nếu chỉ làm cho máy tính chạy nhanh hơn, đó là công việc của CPU, nhưng CPU đã yếu dần. Cách duy nhất để đạt hiệu năng lớn và giảm chi phí là tăng tốc ứng dụng hoặc lĩnh vực đặc thù — chính là ứng dụng tăng tốc tính toán. Vì vậy, Nvidia phải phát triển các thư viện cho từng ngành, lĩnh vực.
Là một công ty tính toán tích hợp dọc, chúng tôi phải hiểu rõ các ứng dụng, lĩnh vực và thuật toán ở mức nền tảng. Chúng tôi còn phải biết cách triển khai thuật toán trên trung tâm dữ liệu, đám mây, tại chỗ, biên (edge) hoặc robot. Từ chip nền tảng đến hệ thống, chúng tôi thực hiện tích hợp dọc. Nvidia mạnh mẽ vì mở rộng ngang. Chúng tôi cam kết kết hợp phần mềm, thư viện và công nghệ của Nvidia với đối tác, tích hợp vào mọi nền tảng mục tiêu, để mang tăng tốc tính toán đến mọi người. Hội nghị GTC hôm nay chính là minh chứng tuyệt vời cho triết lý này.
Chúng tôi có các thư viện đặc thù ngành cho nhiều lĩnh vực khác nhau. Ví dụ trong dịch vụ tài chính (cũng là nhóm tham dự đông nhất tại GTC), thuật toán giao dịch chuyển từ machine learning truyền thống dựa vào đặc trưng của con người sang phân tích dữ liệu khổng lồ bằng siêu máy tính, tự động phát hiện mô hình, chính là thời điểm của deep learning và Transformer. Ngành y tế cũng đón nhận thời kỳ ChatGPT. Chúng tôi ứng dụng AI vật lý và sinh học vào phát triển thuốc, xây dựng AI Agent hỗ trợ dịch vụ khách hàng và chẩn đoán.
Trong công nghiệp, chúng tôi bắt đầu xây dựng các nhà máy AI quy mô lớn nhất trong lịch sử. Hầu hết các ngành đều xây dựng nhà máy AI, nhiều đại diện nhà sản xuất chip và máy tính có mặt hôm nay. Trong truyền thông và giải trí, nền tảng AI thời gian thực hỗ trợ dịch thuật, phát sóng, phát trực tiếp game và video, phần lớn nội dung sẽ được AI nâng cấp. Trong lĩnh vực lượng tử, 35 công ty đang dùng nền tảng Holoscan của Nvidia để xây dựng hệ thống GPU lượng tử thế hệ mới. Ngành bán lẻ và hàng tiêu dùng (CPG) dùng Nvidia tối ưu chuỗi cung ứng, xây dựng hệ thống mua sắm代理 và AI hỗ trợ khách hàng, trị giá 35 nghìn tỷ USD.
Trong lĩnh vực robot công nghiệp trị giá 50 nghìn tỷ USD, Nvidia đã có mặt 10 năm, xây dựng nền tảng tính toán cho robot, hợp tác với tất cả các nhà sản xuất robot lớn. Triển lãm hôm nay trưng bày 110 robot. Ngành viễn thông trị giá khoảng 2 nghìn tỷ USD, các trạm gốc toàn cầu sẽ được nâng cấp thành nền tảng hạ tầng AI, để AI vận hành tại biên. Nền tảng Aerial của chúng tôi hợp tác lớn với Nokia, T-Mobile.
Tất cả đều dựa trên thư viện thuật toán CUDA-X do chính Nvidia phát minh — là nền tảng của công ty thuật toán Nvidia, cũng là điểm khác biệt của chúng tôi. Thuật toán giúp chúng tôi đi sâu vào từng ngành, biến các phương pháp của các nhà khoa học hàng đầu thành thư viện. Tại hội nghị, chúng tôi sẽ ra mắt nhiều thư viện và mô hình mới, các thư viện này là báu vật của công ty, kích hoạt nền tảng tính toán, giải quyết các vấn đề thực tế. Ví dụ, cuDNN giúp AI phát triển mạnh mẽ, cuOPT cho tối ưu quyết định, cuLitho cho quang khắc, cuDSS cho giải pháp thưa rãnh, Parabricks cho di truyền học, hàng nghìn thư viện CUDA-X giúp các nhà phát triển đột phá trong khoa học và kỹ thuật. Tất cả đều là mô phỏng hoàn toàn dựa trên các bộ giải pháp vật lý, mô hình vật lý AI và robot vật lý dựa trên các bộ giải pháp này. Nhờ hiểu biết về thuật toán và nền tảng tính toán, Nvidia là công ty tích hợp dọc, mở rộng ngang, liên tục mở khóa các cơ hội mới.
Ngoài các ông lớn truyền thống, còn có nhiều startup AI gốc như OpenAI, Anthropic. Khi tính toán được “tái phát minh”, các quỹ đầu tư đã rót hơn 150 tỷ USD vào startup. Lần đầu tiên trong lịch sử, các công ty này cần lượng lớn sức mạnh tính toán và Token khổng lồ, tự tạo Token hoặc nâng giá trị Token hiện có. Như thời PC, internet, di động sinh ra Google, Amazon, Meta, chúng ta đang bước vào giai đoạn chuyển đổi nền tảng mới, sẽ xuất hiện các công ty mới có ảnh hưởng lớn trong tương lai.
Trong hai năm qua, ba cột mốc chính đã thúc đẩy bong bóng AI. Thứ nhất, ChatGPT mở ra kỷ nguyên AI sinh tạo, không chỉ cảm nhận, hiểu biết, mà còn dịch và tạo nội dung sáng tạo. Thứ hai, tính toán sinh tạo thay đổi hoàn toàn cách thực hiện tính toán, từ dựa vào truy xuất sang sinh tạo, làm thay đổi kiến trúc và xây dựng máy tính. Thứ ba, AI suy luận (reasoning) nổi lên, các mô hình O1, O3 giúp AI tự phản tỉnh, suy nghĩ độc lập, phân tích vấn đề, tự xác minh, làm cho AI đáng tin cậy hơn, dựa trên thực tế. Khả năng suy luận này làm tăng đáng kể lượng token dùng cho đầu vào và đầu ra, đòi hỏi nhiều tính toán hơn. Sau đó, ClaudeCode ra đời, là mô hình trí tuệ nhân tạo đầu tiên có thể tự đọc file, viết code, biên dịch, thử nghiệm và lặp lại, cách mạng hóa kỹ thuật phần mềm.
Chúng tôi có 100% nhân viên dùng các công cụ AI như ClaudeCode, Codex, Cursor chạy trên Nvidia để hỗ trợ viết code. Giờ đây, bạn không cần hỏi AI làm gì nữa, mà trực tiếp để nó sáng tạo, thực thi, xây dựng dựa trên ngữ cảnh. AI đã tiến từ cảm nhận sang sinh tạo, rồi suy luận, và giờ có thể làm việc hiệu quả. Chính vì AI đã có thể làm việc sáng tạo, nhu cầu tính toán của thị trường trong hai năm qua đã bùng nổ, dù đã xuất xưởng nhiều, vẫn còn tăng.
AI giờ phải suy nghĩ, hành động, đọc hiểu, và để làm vậy, nó phải suy luận và lập luận logic. Mỗi phần của AI khi suy nghĩ, hành động, sinh ra token đều cần suy luận. Giờ đã qua giai đoạn huấn luyện, chúng ta đang ở lĩnh vực suy luận, điểm chuyển đổi đã đến. Tăng trưởng tính toán trong thời điểm này khoảng 10.000 lần. Trong hai năm qua, nhu cầu tính toán tăng 10.000 lần, còn lượng sử dụng có thể tăng 100 lần. Tin rằng, trong hai năm qua, nhu cầu tính toán đã tăng gấp một triệu lần — đó là cảm nhận chung của các startup, OpenAI, Anthropic. Nếu họ có thêm sức mạnh tính toán, có thể tạo ra nhiều Token hơn, doanh thu sẽ tăng, AI càng tiến bộ sẽ càng thông minh.
Chúng ta đang ở trong hệ thống vòng quay tích cực này, điểm chuyển đổi của suy luận đã đến. Năm ngoái, tôi từng nói đến năm 2026, tổng giá trị đơn hàng mua Blackwell và Rubin sẽ đạt 5000 tỷ USD. Dù mọi người có thể không để ý vì doanh thu năm đó lập kỷ lục, nhưng giờ tôi muốn nói, đến 2027, con số này sẽ ít nhất là 1 nghìn tỷ USD. Thực tế, chúng ta sẽ đối mặt với thiếu hụt sức mạnh tính toán, nhu cầu còn vượt xa con số này.
Trong năm qua, chúng tôi đã làm rất nhiều việc, 2025 sẽ là năm của Nvidia về suy luận. Chúng tôi muốn đảm bảo không chỉ giỏi về huấn luyện và hậu huấn luyện, mà còn xuất sắc trong mọi giai đoạn của AI. Đầu tư hạ tầng có thể mở rộng lâu dài, hệ thống Nvidia có tuổi thọ dài, chi phí thấp. Không còn nghi ngờ gì nữa, hệ thống Nvidia là hạ tầng AI rẻ nhất thế giới. Tất cả năm ngoái đều xoay quanh AI suy luận, thúc đẩy điểm chuyển đổi. Cùng lúc, các nền tảng như Llama của Meta, LLaMA của Meta, đều chọn Nvidia, gần như chiếm một phần ba