Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Pre-IPOs
Mở khóa quyền truy cập đầy đủ vào các IPO cổ phiếu toàn cầu
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Khuyến mãi
AI
Gate AI
Trợ lý AI đa năng đồng hành cùng bạn
Gate AI Bot
Sử dụng Gate AI trực tiếp trong ứng dụng xã hội của bạn
GateClaw
Gate Tôm hùm xanh, mở hộp là dùng ngay
Gate for AI Agent
Hạ tầng AI, Gate MCP, Skills và CLI
Gate Skills Hub
Hơn 10.000 kỹ năng
Từ văn phòng đến giao dịch, thư viện kỹ năng một cửa giúp AI tiện lợi hơn
GateRouter
Lựa chọn thông minh từ hơn 40 mô hình AI, với 0% phí bổ sung
Ngăn chặn sự lan rộng của AI không phải là mô hình mà là cơ sở hạ tầng... Vai trò của "quản lý thống nhất" của Kubernetes ngày càng nổi bật
AI mở rộng của giới hạn không nằm ở mô hình, mà ở “hạ tầng” — chẩn đoán này ngày càng được mở rộng hơn.
Trong hội nghị “KubeCon+CloudNativeCon châu Âu” gần đây, trung tâm cạnh tranh trí tuệ nhân tạo (AI) đã rõ ràng không còn chỉ là hiệu năng mô hình nữa. Phân tích chỉ ra rằng, trong quá trình doanh nghiệp triển khai AI vào dịch vụ thực tế, điểm nghẽn lớn nhất là cấu trúc hạn chế không thể vận hành các hệ thống phân tán trên đám mây, biên và cục bộ như một thể thống nhất.
Nghiên cứu mới cho thấy phần lớn các dự án AI chưa đạt đến giai đoạn vận hành thực tế, nguyên nhân thất bại chủ yếu tập trung vào vấn đề tích hợp và thực thi vận hành, chứ không phải do mô hình. Nhà phân tích chính của TheCube Research, Paul Nashaavati, nhận định: “AI đang phơi bày những thiếu sót căn bản của hạ tầng doanh nghiệp”, “Sự phân mảnh toàn diện của đám mây, biên và cục bộ đã trở thành rào cản lớn nhất cho AI vận hành”.
Vấn đề “quyền chủ quyền” làm phức tạp hơn hạ tầng AI
Gần đây, sự phân mảnh này được gọi là “quyền chủ quyền”. Điều này xuất phát từ việc quyền sở hữu dữ liệu, quy định khu vực và chính sách nội bộ doanh nghiệp đan xen lẫn nhau, khiến dữ liệu và workload khó tập trung về một chỗ. Kết quả là, hệ thống AI buộc phải chuyển đổi thành một cấu trúc không phải là một ngăn xếp duy nhất, mà là vận hành phân tán qua nhiều môi trường.
Phó chủ tịch phụ trách nền tảng lai của Red Hat, Mike Barrett, lấy ví dụ về các bộ phận doanh nghiệp sử dụng các mô hình ngôn ngữ lớn khác nhau để giải thích, khách hàng doanh nghiệp không muốn chỉ có công cụ phù hợp cho từng môi trường cụ thể, mà cần một “nền tảng ngang” ở cấp doanh nghiệp. Để giải quyết vấn đề này, Red Hat đang tập trung xây dựng một lớp điều khiển dựa trên Kubernetes, quản lý thống nhất các workload AI trên tất cả các môi trường, gọi là “AI control plane”.
Kubernetes vượt ra ngoài orchestration, tiến hóa thành công cụ “đồng bộ vận hành”
Kubernetes ban đầu không phải là công nghệ thiết kế cho suy luận AI. Vai trò ban đầu của nó gần như là để triển khai và quản lý container. Nhưng khi AI suy luận chuyển sang môi trường dịch vụ thực tế, các vấn đề như thiếu nhất quán giữa các vùng miền, độ trễ biến động, tranh chấp tài nguyên và chiến lược trôi dạt bắt đầu xuất hiện toàn diện.
Giám đốc kỹ thuật của Red Hat, Robert Shoti, đề cập đến framework suy luận mã nguồn mở “llm-d”, và giải thích rằng người dùng không chỉ muốn xây dựng hệ thống hiệu năng cao, mà còn muốn giải quyết các phức tạp trong giai đoạn vận hành sau này. Điều này có nghĩa là, thời điểm hệ thống AI trở nên không ổn định không phải trong giai đoạn huấn luyện, mà là trong vận hành dịch vụ thực tế.
Ủy viên ban quản trị Quỹ tính toán đám mây gốc (CNCF), Jan Meren, cũng nêu ra vấn đề tương tự. Ông phân tích rằng, mặc dù đám mây gốc đã phát triển thành hợp tác nguồn mở toàn cầu, nhưng AI khiến các hệ thống dựa trên “nhất quán toàn cầu” mâu thuẫn với các quy định khu vực và môi trường phân tán thực tế.
Nhà phân tích chính của TheCube Research, Rob Strechay, nhận định: “Bản chất của AI đại diện là nền tảng chứ không phải mô hình”, và khả năng cạnh tranh trong tương lai sẽ phụ thuộc nhiều hơn vào việc xây dựng hạ tầng tốt hơn, chứ không phải chọn mô hình tốt hơn.
Nền tảng kỹ thuật đang nổi lên như giải pháp thực tế cho vận hành AI
Vấn đề là, Kubernetes quá phức tạp đối với mọi nhóm, khó có thể xử lý trực tiếp. CTO của Red Hat AI, Brian Stevens, cho biết hiện có nhiều nhà khoa học dữ liệu xây dựng AI phải đồng thời đảm nhận trách nhiệm vận hành hạ tầng. Cách thu hẹp khoảng cách này chính là kỹ thuật nền tảng.
Strechay giải thích rằng, khi các công cụ phân mảnh, năng lực nhân sự hạn chế và độ phức tạp vận hành trở thành rào cản thực tế, ngành công nghiệp đang chuyển hướng sang cấu trúc kiểm soát thống nhất dựa trên nền tảng và Kubernetes. Trong xu hướng này, Red Hat OpenShift AI đảm nhận nhiệm vụ trừu tượng hóa việc học, triển khai, dịch vụ và suy luận xuyên suốt các môi trường lai một cách lặp lại.
Máy ảo cũng đang tiến vào Kubernetes
Hạ tầng doanh nghiệp sẽ không thể hiện đại hóa toàn bộ cùng lúc. Các tài sản cốt lõi như hệ thống tính phí, cơ sở dữ liệu thường được giữ lại do quản lý rủi ro. Điều này dẫn đến việc máy ảo (VM) và container duy trì hoạt động lâu dài theo cách phân đôi.
Khảo sát cho thấy 84% nhà ra quyết định CNTT gặp khó khăn trong việc quản lý riêng biệt máy ảo và môi trường container. Daniel Messel của Red Hat nói: “Ảo hóa và container không nên tồn tại như các đảo riêng biệt, chúng nên nằm trên cùng một nền tảng”. Trong CNCF, dự án mở rộng KubeVirt đã bước vào giai đoạn trưởng thành, cho phép chạy đồng thời máy ảo và container trong Kubernetes.
Điều này được hiểu như một chiến lược không loại bỏ hệ thống cũ, mà là tích hợp các hệ thống hiện có vào cùng một lớp kiểm soát, để hợp nhất giao diện vận hành.
Cũng có ý kiến cho rằng, “tiện lợi” không đồng nghĩa với quyền kiểm soát
Dù quyền chủ quyền AI có vẻ là một giải pháp thay thế, nhưng cũng có ý kiến cho rằng nó thực chất đi kèm nhiều hạn chế hơn. Các quy định về dữ liệu của các quốc gia hạn chế di chuyển dữ liệu, chính sách doanh nghiệp cản trở tập trung hóa. Kết quả là, bất kể doanh nghiệp đã chuẩn bị ra sao, workload vẫn phải phân bổ ra đám mây, cục bộ và biên.
Gabriele Bartolini của EnterpriseDB nhấn mạnh rằng, nếu không đảm bảo tính di động của cơ sở dữ liệu, thì không thể có quyền chủ quyền thực sự. Ông đặc biệt phân biệt rõ, rằng dịch vụ quản lý “tiện lợi” không đồng nghĩa với quyền kiểm soát. Jan Meren cũng nói rằng, trong thảo luận về quyền chủ quyền, cần phân biệt “quyền kiểm soát mã nguồn” và “quyền kiểm soát triển khai”, mã nguồn có thể tồn tại như tài sản mã nguồn mở toàn cầu, nhưng việc triển khai thực tế chịu ảnh hưởng trực tiếp bởi luật pháp và chính sách.
Trong điểm này, vai trò của Kubernetes trở nên rõ ràng hơn: nó kết nối mã nguồn chia sẻ toàn cầu thành một dạng có thể vận hành phù hợp với các hạn chế khu vực khác nhau.
Thắng thua cuối cùng phụ thuộc vào hệ sinh thái
Một doanh nghiệp đơn lẻ không thể tự mình đảm nhận hạ tầng AI. Để AI kiểm soát bằng control plane của Kubernetes phát huy hiệu quả, không cần thay thế nhiều hệ thống, mà là kết nối chúng lại. Điều này trở nên khả thi nhờ vào “hệ sinh thái” gồm các tiêu chuẩn, API và các dự án nguồn mở phía trên.
Nashaavati nhận định rằng, Red Hat không chỉ là nhà cung cấp nền tảng thương mại, mà còn là một trong những doanh nghiệp đóng góp tích cực nhất vào hệ sinh thái CNCF. Công việc phía trên này không chỉ đơn thuần là quản lý hình ảnh, mà còn là cơ chế chính để ngăn chặn sự khác biệt trong các triển khai Kubernetes của các nhà cung cấp khác nhau, duy trì tính nhất quán. Red Hat còn hợp tác với Nvidia để thúc đẩy “Nhà máy AI của Red Hat”, xây dựng hạ tầng AI doanh nghiệp mở rộng kết hợp OpenShift và Nvidia tăng tốc tính toán.
Nashaavati nói: “Xét đến tỷ lệ thất bại AI hai chữ số của tới 75% doanh nghiệp do hệ thống phân mảnh, thì điểm nghẽn đã chuyển sang hạ tầng.” Điều này có nghĩa là vấn đề không phải là thiếu chức năng, mà là cấu trúc hệ thống không thể phối hợp hiệu quả.
Kubernetes nổi lên như một lớp sản xuất trong kỷ nguyên AI
Thay vì nói AI làm sụp đổ một điểm cụ thể nào đó, có thể nói
TP Các chú ý về AI Sử dụng mô hình ngôn ngữ TokenPost.ai để tóm tắt bài viết. Phần chính của nội dung có thể bị bỏ sót hoặc không chính xác.