Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Hai tỷ đô la: OpenAI và Nvidia đang tham gia một trận “chiến tranh suy luận”
Viết bài: xiaopi
Tháng 12 năm 2025, Nvidia âm thầm chi 20 tỷ USD mua lại một công ty chip AI tên là Groq.
Ngày 17 tháng 4 năm 2026, OpenAI công bố sẽ mua hơn 20 tỷ USD chip từ một công ty chip AI khác là Cerebras. Cùng ngày, Cerebras chính thức nộp hồ sơ IPO lên Nasdaq, mục tiêu định giá 35 tỷ USD.
Hai khoản tiền, số tiền gần như hoàn toàn trùng khớp. Một là mua lại, một là mua sắm. Một đến từ nhà bán chip AI lớn nhất thế giới, một đến từ nhà mua AI lớn nhất toàn cầu.
Đây không phải hai sự kiện độc lập, mà là hai hành động đối xứng trong cùng một cuộc chiến tranh. Tên chiến trường là: suy luận AI.
Hầu hết mọi người không để ý đến cuộc chiến này. Bởi vì nó không có tiếng nổ, chỉ là từng dòng thông báo tài chính, và các cuộc thảo luận kỹ thuật lan truyền trong giới kỹ sư Silicon Valley. Nhưng ảnh hưởng của nó có thể sâu rộng hơn bất kỳ buổi ra mắt AI nào trong hai năm qua — vì nó đang phân phối lại quyền kiểm soát của một thị trường công nghệ lớn nhất lịch sử.
Suy luận là gì, tại sao từ khóa năm 2026 không còn là “huấn luyện”
Trước khi nói về hai khoản 200 tỷ, cần hiểu một bối cảnh: chiến trường chip AI đang diễn ra một sự dịch chuyển trọng tâm.
Huấn luyện và suy luận là hai giai đoạn tiêu thụ sức mạnh tính toán của AI. Huấn luyện là tạo mô hình — cung cấp lượng dữ liệu khổng lồ cho mạng neural, để nó học một khả năng nào đó. Quá trình này thường chỉ diễn ra một lần, hoặc cập nhật định kỳ. Suy luận là dùng mô hình — mỗi lần người dùng gửi câu hỏi, ChatGPT đưa ra câu trả lời, chính là một yêu cầu suy luận.
Năm 2023, phần lớn chi tiêu sức mạnh tính toán AI toàn cầu dành cho huấn luyện, suy luận chỉ là phụ.
Nhưng tỷ lệ này đang nhanh chóng đảo ngược.
Theo dữ liệu nghiên cứu thị trường của Deloitte và CES 2026, năm 2025, suy luận đã chiếm 50% tổng chi tiêu sức mạnh tính toán AI; năm 2026, tỷ lệ này sẽ nhảy lên 2/3. CEO Lenovo, ông Yang Yuanqing, nói thẳng hơn tại CES: Cơ cấu chi tiêu AI sẽ hoàn toàn đảo ngược từ “80% huấn luyện + 20% suy luận” thành “20% huấn luyện + 80% suy luận”.
Logic không phức tạp. Huấn luyện là chi phí một lần, suy luận là chi phí liên tục. GPT-4 huấn luyện một lần, nhưng mỗi ngày phải trả lời hàng tỷ câu hỏi của người dùng, mỗi cuộc trò chuyện đều là một yêu cầu suy luận. Sau khi triển khai quy mô lớn, lượng tiêu thụ suy luận tích lũy vượt xa huấn luyện.
Điều này có nghĩa là gì? Nghĩa là phần bánh ngọt kiếm tiền nhiều nhất của ngành AI đang chuyển từ “chip huấn luyện” sang “chip suy luận”. Và hai loại chip này cần thiết kế kiến trúc hoàn toàn khác nhau.
Vấn đề của Nvidia: chip thiết kế cho huấn luyện sinh ra không phù hợp để suy luận
H100, H200 của Nvidia là những “quái vật” dành cho huấn luyện. Điểm mạnh cốt lõi của chúng là khả năng xử lý tính toán cực cao — huấn luyện cần thực hiện hàng loạt phép nhân ma trận khổng lồ, GPU rất giỏi loại “tính toán song song đa nhân” này.
Nhưng nút thắt của suy luận không phải là tính toán, mà là băng thông bộ nhớ.
Khi người dùng gửi câu hỏi, chip cần “di chuyển” toàn bộ trọng số của mô hình từ bộ nhớ vào các đơn vị tính toán, rồi mới sinh ra câu trả lời. Quá trình “di chuyển” này chính là nguồn gốc thực sự của độ trễ suy luận. GPU của Nvidia dùng bộ nhớ băng thông cao ngoài kết nối (HBM), việc vận chuyển này không thể tránh khỏi gây ra độ trễ — đối với ChatGPT xử lý hàng chục triệu yêu cầu mỗi giây, độ trễ này nhân lên quy mô, trở thành điểm nghẽn hiệu năng thực sự.
Các kỹ sư của OpenAI nhận thấy vấn đề này khi họ tối ưu Codex (công cụ sinh mã), phát hiện dù điều chỉnh tham số thế nào, tốc độ phản hồi vẫn bị giới hạn bởi kiến trúc GPU của Nvidia.
Nói cách khác, điểm yếu của Nvidia ở phía suy luận không phải do cố gắng, mà là do kiến trúc.
Chip WSE-3 của Cerebras đi theo hướng hoàn toàn khác. Chip này lớn đến mức phải dùng đóng gói wafer — diện tích 46.255 mm², lớn hơn lòng bàn tay người — tích hợp 900.000 lõi AI và 44GB SRAM siêu tốc trên cùng một miếng silicon. Bộ nhớ đặt ngay cạnh lõi tính toán, khoảng cách “vận chuyển” rút ngắn từ centimet xuống micromet. Kết quả: tốc độ suy luận nhanh gấp 15 đến 20 lần H100 của Nvidia.
Cần bổ sung: Nvidia không đứng yên chờ chết. Kiến trúc Blackwell (B200) mới nhất của họ đã nâng cao hiệu năng suy luận gấp 4 lần so với H100, đang được triển khai quy mô lớn. Nhưng Blackwell đang nhắm vào một mục tiêu di động — Cerebras cũng đang cập nhật phiên bản mới, và thị trường chip đang xuất hiện nhiều đối thủ cạnh tranh chứ không chỉ riêng Cerebras.
Vấn đề 20 tỷ USD của Nvidia: lời thừa nhận sau thương vụ mua lại lớn nhất lịch sử
Tháng 12 năm 2025, Nvidia công bố một thương vụ mua lại lớn nhất trong lịch sử của họ.
Mục tiêu là Groq.
Groq là đối thủ cạnh tranh cùng loại của Cerebras, cũng tập trung vào chip SRAM tối ưu cho suy luận — gọi là LPU (đơn vị xử lý ngôn ngữ), từng được đánh giá là chip tốc độ suy luận nhanh nhất thế giới. Nvidia đã bỏ ra 20 tỷ USD mua toàn bộ công nghệ cốt lõi và đội ngũ sáng lập của Groq, gồm cả nhà sáng lập Jonathan Ross và nhiều kỹ sư hàng đầu từng làm việc trong nhóm TPU của Google.
Đây là thương vụ lớn nhất của Nvidia kể từ việc mua lại Mellanox năm 2019 với 7 tỷ USD, gấp gần 3 lần.
Theo nhiều nhà phân tích, điều truyền tải đằng sau số tiền này còn quan trọng hơn chính số tiền: Nvidia cho rằng họ còn thiếu một cấu trúc rõ ràng ở phía suy luận, và khoản thiếu này lớn đến mức đáng bỏ ra 20 tỷ USD để lấp đầy.
Nếu Nvidia thực sự tin rằng GPU của họ vô địch trong suy luận, họ không cần phải mua Groq. Thực ra, số tiền này là một đơn hàng mua công nghệ trị giá 20 tỷ USD — thừa nhận rằng kiến trúc SRAM tích hợp có lợi thế thực sự trong các kịch bản suy luận, và Nvidia không thể tự nhiên phủ kín lợi thế này bằng dòng sản phẩm hiện tại, nên phải trả giá cao nhất để mua lại một công nghệ mà chính họ còn chưa thể tự làm.
Dĩ nhiên, câu chuyện chính thức sau khi mua là: “Tích hợp sâu với Groq, cung cấp giải pháp suy luận toàn diện hơn.” Ngôn ngữ kỹ thuật là: Chúng tôi nhận ra sản phẩm của mình chưa đủ, nên mua của người khác.
200 tỷ USD của OpenAI: Mua chip chỉ là bề nổi, cổ phần mới là điểm mấu chốt
Quay trở lại phía OpenAI.
Tháng 1 năm 2026, OpenAI ký hợp đồng mua sắm công suất tính toán trị giá 10 tỷ USD trong 3 năm với Cerebras — truyền thông lúc đó chỉ tập trung vào “OpenAI đa dạng hóa nhà cung cấp chip”, giọng điệu nhẹ nhàng.
Nhưng chi tiết mới được tiết lộ ngày 17 tháng 4 làm thay đổi hoàn toàn bản chất của sự việc:
Thứ nhất, số tiền mua sắm tăng từ 10 tỷ lên 20 tỷ USD, gấp đôi.
Thứ hai, OpenAI sẽ nhận quyền chọn cổ phần của Cerebras, theo quy mô mua sắm tăng lên, tỷ lệ sở hữu tối đa có thể lên tới 10% tổng cổ phần của Cerebras.
Thứ ba, OpenAI còn cung cấp 1 tỷ USD vốn xây dựng trung tâm dữ liệu cho Cerebras — nói cách khác, OpenAI đang giúp Cerebras xây nhà máy.
Ba chi tiết này tạo ra một bức tranh hoàn toàn khác: OpenAI không chỉ mua chip, mà còn đang ươm mầm một nhà cung cấp.
Logic này trong lịch sử công nghệ đã có tiền lệ rõ ràng. Năm 2006, Apple bắt đầu hợp tác với Samsung để tùy biến chip dòng A, ban đầu cũng là hợp đồng mua bán lớn, nhưng sau đó Apple ngày càng tham gia sâu hơn, cuối cùng tự phát triển dòng chip M, kiểm soát hoàn toàn chuỗi cung ứng. Những gì OpenAI làm có phần tương tự — nhưng có một giới hạn quan trọng: Apple từ đầu đã nắm quyền thiết kế chip, còn OpenAI hiện vẫn là người mua sắm, sau khi Cerebras IPO, sẽ tự phát triển và phục vụ nhiều khách hàng khác. Con đường này không nhất thiết dẫn đến OpenAI kiểm soát hoàn toàn Cerebras, mà có thể là hai bên xây dựng một hệ sinh thái phụ thuộc lẫn nhau.
Một mặt, dùng 20 tỷ USD và cổ phần để gắn kết Cerebras, đảm bảo nguồn cung sức mạnh suy luận không phụ thuộc Nvidia; mặt khác, OpenAI đang hợp tác với Broadcom để phát triển chip ASIC riêng, dự kiến sản xuất hàng loạt cuối năm 2026. Hai hướng đi song song, mục tiêu cuối cùng là tự chủ về sức mạnh tính toán.
Cerebras hôm nay IPO, bạn đang đặt cược gì?
Ngày 17 tháng 4, Cerebras chính thức nộp hồ sơ IPO lên Nasdaq, mục tiêu định giá 35 tỷ USD, dự kiến huy động 3 tỷ USD.
Mức định giá này cao hơn gấp 4 lần so với tháng 9 năm 2025, khi nó mới đạt 8,1 tỷ USD. Tháng 2 năm nay, họ vừa hoàn tất vòng gọi vốn mới, định giá đã lên tới 23 tỷ USD, mức IPO 35 tỷ USD còn cao hơn 52% so với giá trị này.
Những ai quen thuộc lịch sử Cerebras đều biết đây là lần thứ hai họ cố gắng niêm yết. Lần đầu là năm 2024, nhưng do khách hàng chủ lực G42 (quỹ đầu tư công nghệ của chính phủ UAE) chiếm tới 83%–97% doanh thu năm đó, CFIUS can thiệp vì lý do an ninh quốc gia, khiến IPO bị rút lại.
Lần này, G42 đã biến mất khỏi danh sách cổ đông, thay vào đó là OpenAI.
Nói cách khác, cấu trúc tập trung khách hàng của Cerebras vẫn chưa được giải quyết triệt để — tên khách hàng lớn đã đổi, nhưng phụ thuộc vào khách hàng lớn vẫn còn đó. Nhà đầu tư cần đánh giá: khách hàng lớn này tốt hơn hay tệ hơn? Về mặt tín dụng, rõ ràng OpenAI tốt hơn G42; về chiến lược, OpenAI cũng là đối thủ cạnh tranh của Cerebras — nếu chip tự phát triển của OpenAI thành công, sẽ là mối đe dọa thực sự cho Cerebras.
Công bằng mà nói, Cerebras cũng đang tích cực mở rộng các khách hàng khác, dự kiến sẽ liệt kê nhiều nguồn doanh thu đa dạng hơn trong hồ sơ phát hành, giúp giảm độ tập trung. Nhưng trước khi chip tự phát triển của OpenAI đi vào sản xuất hàng loạt, câu trả lời này vẫn chưa rõ.
Mua cổ phiếu Cerebras, thực chất bạn đang đặt cược: OpenAI sẽ tiếp tục chọn Cerebras, và chip tự phát triển của OpenAI sẽ không đến sớm hơn dự kiến. Cả hai đều chưa chắc chắn.
Dĩ nhiên, lý do để mua cũng có thật: nếu quy mô thị trường suy luận tăng trưởng theo dự báo, dù chỉ chiếm một phần nhỏ trong thị trường này, con số tuyệt đối cũng rất đáng kể. Vấn đề không phải là Cerebras có cơ hội hay không, mà là mức định giá 35 tỷ USD đã phản ánh các kịch bản lạc quan nhất chưa.
Hai khoản 200 tỷ USD, đối xứng xuất hiện trong khoảng cuối năm 2025 đến tháng 4 năm 2026.
Một đến từ nhà bán chip AI lớn nhất thế giới, mua công nghệ của đối thủ cạnh tranh trong thị trường suy luận.
Một đến từ nhà mua AI lớn nhất toàn cầu, đang ươm mầm một công ty thách thức Nvidia trong thị trường suy luận.
Vấn đề của Nvidia là phòng thủ — họ dùng giá cao nhất để bịt kín một lỗ hổng công nghệ lớn nhất của chính mình.
Vấn đề của OpenAI là tấn công — họ tiêu tiền xây dựng một con đường cao tốc suy luận không phụ thuộc Nvidia, đồng thời sở hữu cổ phần của một trạm thu phí trên con đường đó.
Cuộc chiến này không có tiếng súng, nhưng dòng tiền chưa bao giờ nói dối. Hai khoản tiền này cho thấy rõ hơn bất kỳ buổi ra mắt AI nào: quyền kiểm soát hạ tầng suy luận AI đang bị tranh giành. Và thị trường này, vào năm 2026, sẽ chiếm tới hai phần ba tổng chi tiêu sức mạnh tính toán của toàn ngành.
IPO của Cerebras là hồi còi báo hiệu cho cuộc chiến này.