Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
CFD
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Tình hình mở rộng AI… chìa khóa thắng thua không phải là ‘cạnh tranh GPU’ mà là hạ tầng suy luận hiệu quả về chi phí
Khi các doanh nghiệp đưa trí tuệ nhân tạo (AI) vượt qua giai đoạn thử nghiệm để bước vào giai đoạn lan rộng toàn diện, thì những yếu tố quyết định thắng thua trên thị trường cũng đang thay đổi. Hiện nay, cốt lõi của cạnh tranh không còn là việc tích tụ các mô hình lớn hơn và nhiều bộ xử lý đồ họa (GPU) hơn nữa, mà là ai có thể xây dựng hệ thống suy luận AI mở rộng có thể vận hành ổn định trong khi kiểm soát ngân sách tốt hơn.
Red Hat và Intel đang phù hợp với xu hướng này, thúc đẩy mở rộng hạ tầng suy luận AI dựa trên công nghệ mã nguồn mở. Giám đốc kỹ thuật AI của Red Hat, Taneem Ibrahim, và Phó Chủ tịch bộ phận trung tâm dữ liệu và AI của Intel, Bill Pearson, tại “Hội nghị Red Hat 2026” đã chỉ ra rằng thách thức thực tế trong vận hành dịch vụ AI quy mô lớn là hiệu quả chi phí và tối ưu hóa tổ hợp hạ tầng.
Chuyển từ xu hướng GPU đơn sang chiến lược song song CPU
Trong giai đoạn đầu của sự lan rộng của AI tạo sinh, sau khi ChatGPT và các mô hình trọng số mở ra đời, phương pháp chính là triển khai các mô hình lớn nhất có thể trên các cụm GPU khổng lồ. Tuy nhiên, trong môi trường doanh nghiệp thực tế, chi phí vận hành và khả năng kiểm soát trở nên quan trọng ngang bằng với hiệu suất, và lúc này, việc làm thế nào để mở rộng mô hình một cách hiệu quả trên các nền tảng như Red Hat Enterprise Linux (RHEL) và OpenShift đã trở thành vấn đề chính.
Ibrahim cho biết, Red Hat ngày càng suy nghĩ nhiều hơn về cách vận hành một trong những dự án mã nguồn mở đóng góp nhiều nhất của họ là “vLLM” trong môi trường quy mô lớn. Ông nhấn mạnh rằng thách thức cốt lõi là giảm “chi phí cho mỗi token” để ứng dụng AI vào thực tế kinh doanh, đồng thời duy trì khả năng quản trị và kiểm soát, hướng tới triển khai quy mô lớn.
Gần đây, thứ tự ưu tiên của hạ tầng cũng đang thay đổi. Pearson giải thích rằng, khác với giai đoạn ban đầu tập trung vào GPU, khi “AI đại lý” lan rộng, vai trò của bộ xử lý trung tâm (CPU) lại nổi bật trở lại. Điều này có nghĩa là không phải tất cả các công việc AI đều cần GPU, mà tùy thuộc vào loại tải công việc xử lý, việc kết hợp hợp lý CPU và GPU trở nên quan trọng hơn.
Red Hat và Intel mở rộng hỗ trợ vLLM dựa trên Xeon
Dựa trên nhận định này, hai công ty đã tích hợp khả năng hỗ trợ hoàn toàn vLLM trong phiên bản “Red Hat AI 3.4” chạy trên môi trường Xeon của Intel. Điều này không phải là đề xuất “một kích cỡ phù hợp với tất cả” cho mọi khách hàng, mà là thiết kế tổ hợp phần cứng và phần mềm phù hợp dựa trên tính chất kinh doanh và kết quả mong đợi của từng doanh nghiệp.
Pearson phân tích rằng, nhiều doanh nghiệp trước đây đã áp dụng phương pháp “cầm búa trong tay, thấy gì cũng là đinh” với chiến lược tập trung vào GPU. Nhưng ông giải thích rằng, nếu đánh giá lại tài nguyên CPU đã được triển khai quy mô lớn trong trung tâm dữ liệu, và chuyển sang thêm GPU theo nhu cầu, thì có thể đạt được hiệu suất tối ưu hơn và chi phí thấp hơn cùng lúc.
Đặc biệt, các công việc AI dạng đại lý như gọi công cụ, phối hợp dữ liệu, nhiều trong số đó có thể xử lý mà không cần GPU. Intel cho rằng, để CPU đảm nhận các nhiệm vụ suy luận này sẽ giúp GPU tập trung vào các tính toán nặng hơn, từ đó nâng cao hiệu quả toàn hệ thống.
Cạnh tranh hạ tầng AI: “Hiệu quả vận hành” ngày càng quan trọng hơn “Hiệu suất”
Cuộc thảo luận này cho thấy, thị trường AI hiện nay đã vượt qua cạnh tranh về hiệu suất mô hình đơn thuần, chuyển sang cạnh tranh về khả năng kinh tế trong giai đoạn vận hành. Đối với các doanh nghiệp, thay vì cố gắng sở hữu các thiết bị hiệu suất cao nhất có thể, việc tận dụng tốt hơn tài sản trung tâm dữ liệu hiện có, đồng thời đạt “chi phí cho mỗi token thấp” và dịch vụ ổn định, đã trở thành vấn đề thực tế hơn.
Cuối cùng, người chiến thắng trong cuộc cạnh tranh AI thế hệ tiếp theo có thể không phải là công ty sở hữu phần cứng mạnh nhất, mà là các doanh nghiệp có thể tối đa hóa “tỷ lệ hiệu quả chi phí” dựa trên tổ hợp CPU-GPU phù hợp và phần mềm mã nguồn mở. Sự hợp tác lần này giữa Red Hat và Intel cũng được xem là một bước đi phù hợp với xu hướng thị trường.