Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
F5 và NVIDIA nâng cao kinh tế nhà máy AI với các khả năng mới để tăng tốc suy luận AI
(MENAFN- Asdaf News) ** Dubai – Asdaf News:**
F5 (NASDAQ: FFIV), công ty dẫn đầu toàn cầu về cung cấp và bảo mật mọi ứng dụng và API, hôm nay đã công bố mở rộng năng lực trong hoạt động liên tục của mình ** hợp tác**
Việc tích hợp mở rộng kết hợp ** F5 BIG-IP Next for Kubernetes**
Trong các hệ thống AI, token đại diện cho đơn vị đo lường được của đầu ra AI—những từ ngữ, ký hiệu hoặc mảnh dữ liệu được tạo ra và xử lý trong quá trình suy luận. Khối lượng và tốc độ tạo token cuối cùng quyết định trải nghiệm người dùng, hiệu quả hạ tầng và doanh thu trên mỗi bộ tăng tốc.
Khi các doanh nghiệp và nhà cung cấp GPUaaS chạy đua để kiếm tiền từ AI và chuyển từ thử nghiệm AI sang các dịch vụ tạo doanh thu, hiệu quả hạ tầng đã trở thành một chỉ số xác định. Thành công ngày càng được đo không chỉ bằng năng lực GPU đã triển khai, mà bằng kinh tế học token, thông lượng token duy trì ổn định, thời gian đến token đầu tiên (TTFT), chi phí trên mỗi token, và doanh thu trên mỗi bộ tăng tốc GPU. Giải pháp liên doanh F5 và NVIDIA được thiết kế để giải quyết trực tiếp các chỉ số này.
** Tối ưu tokenomics thông qua hạ tầng AI thông minh**
Việc chuyển từ suy luận tập trung vào ứng dụng sang các quy trình AI do tác nhân điều phối đòi hỏi các hướng tiếp cận kiến trúc mới để tối ưu thông lượng token và giảm chi phí. BIG-IP Next for Kubernetes hiện tận dụng các thống kê NVIDIA NIM, các tín hiệu thời gian chạy Dynamo và telemetry GPU để đưa ra các quyết định định tuyến nhận biết suy luận trước khi thực thi. Bằng cách khớp khối lượng công việc với các bộ tăng tốc phù hợp nhất theo thời gian thực, giải pháp giúp tăng mức sử dụng duy trì trong khi giảm độ trễ và việc tính toán lại.
“Cơ sở hạ tầng AI không còn chỉ là vấn đề tiếp cận GPU hoặc mở rộng quy mô triển khai của chúng. Nó đã phát triển thành tối đa hóa đầu ra kinh tế trên mỗi bộ tăng tốc,” ông Kunal Anand, Giám đốc Sản phẩm (Chief Product Officer) của F5 cho biết.“Cùng với NVIDIA, chúng tôi đang cho phép các nhà máy AI coi việc tạo token là một chỉ số kinh doanh đo lường được. BIG-IP Next for Kubernetes cung cấp trí tuệ và quản trị cần thiết để tăng năng suất GPU, giảm chi phí trên mỗi token và mở rộng các nền tảng AI dùng chung một cách tự tin.”
** Hiệu quả hạ tầng đã được xác thực: Nâng cấp mang tính cấu trúc**
Các con số hiệu suất nói lên tất cả. Trong các bài kiểm tra được xác thực bởi The Tolly Group, BIG-IP Next for Kubernetes, được tăng tốc bởi NVIDIA BlueField-3 DPUs, đã mang lại mức tăng lên đến 40% về thông lượng token, nhanh hơn 61% về thời gian đến token đầu tiên (TTFT), và giảm 34% độ trễ tổng thể của yêu cầu.
Đây không phải là những cải thiện gia tăng. Bằng cách chuyển tải mạng, TLS/mã hóa, cân bằng tải nhận biết AI và quản lý lưu lượng sang NVIDIA BlueField-3 DPUs, BIG-IP Next for Kubernetes bảo toàn năng lực CPU của máy chủ và giải phóng GPU để làm điều chúng được xây dựng cho: suy luận duy trì, thông lượng cao ở quy mô lớn. Kết quả là tăng mức sử dụng GPU, giảm độ trễ xếp hàng và tăng năng suất token—cho phép chi phí trên mỗi token thấp hơn trong một phạm vi giới hạn hạ tầng cố định. Quan trọng là, không cần thay đổi mô hình nào, nên các cải thiện này có thể triển khai ngay lập tức trên toàn bộ hạ tầng nhà máy AI hiện có. Đối với các doanh nghiệp và nhà cung cấp NeoCloud cạnh tranh dựa trên kinh tế học token, đây là sự khác biệt giữa hạ tầng kìm hãm đầu ra AI và hạ tầng thúc đẩy nó.
“Cơ sở hạ tầng điện toán tăng tốc của NVIDIA kết hợp với Nền tảng Phân phối Ứng dụng và Bảo mật nhận biết AI của F5 sẽ mở khóa tokenomics cho nhà máy AI vượt trội—cung cấp suy luận có khả năng mở rộng và hiệu quả chi phí mà không cần thay đổi bất kỳ mô hình nào,” ông Kevin Deierling, Phó Chủ tịch cấp cao (SVP), Networking của NVIDIA cho biết.“Cùng với F5 và NVIDIA, chúng tôi đang giúp các doanh nghiệp mở rộng suy luận nhà máy AI một cách hiệu quả và mang lại lợi ích kinh tế.”
** Được thiết kế cho AI do tác nhân điều phối và các nền tảng AI đa thuê**
Các khối lượng công việc AI hiện đại ngày càng được điều phối bởi tác nhân, mang tính liên tục và nhận biết bối cảnh. Chúng đòi hỏi khả năng kiểm soát lưu lượng thông minh mà cân bằng tải truyền thống không thể cung cấp. Giải pháp BIG-IP Next for Kubernetes được nâng cấp hiện có thể hỗ trợ:
Định tuyến nhận biết suy luận cho các quy trình AI tác nhân Tích hợp với NVIDIA DOCA Platform Framework (DPF) để đơn giản hóa việc triển khai và quản lý vòng đời NVIDIA BlueField DPU EVPN-VXLAN với các VRF động cho khả năng đa thuê an toàn ở cấp độ mạng Bảo mật tích hợp, quản trị token và khả năng quan sát trong các môi trường AI của Kubernetes
Những năng lực này cho phép các doanh nghiệp và nhà cung cấp NeoCloud chia sẻ an toàn hạ tầng GPU giữa các đơn vị kinh doanh hoặc với khách hàng bên ngoài, đồng thời vẫn duy trì sự tách biệt hiệu năng và các mức dịch vụ có thể dự đoán.
** Một mặt phẳng điều khiển cho kinh tế học nhà máy AI**
F5 và NVIDIA cung cấp cho các doanh nghiệp các công cụ đã được xác thực và các phương pháp hay nhất để tối ưu kiến trúc suy luận. Với những tiến bộ này, BIG-IP Next for Kubernetes được định vị để trở thành một mặt phẳng điều khiển mang tính chiến lược cho kinh tế học nhà máy AI, quản trị việc tiêu thụ token, tối ưu luồng lưu lượng và tối đa hóa lợi tức đầu tư của hạ tầng.
Thay vì dự phòng quá mức để bù cho những điểm kém hiệu quả, các tổ chức giờ đây có thể trích xuất giá trị kinh tế lớn hơn từ từng GPU vốn đã sẵn sàng để sản xuất. Kết quả là doanh thu trên mỗi GPU được cải thiện, chi phí vận hành giảm và các dịch vụ AI có khả năng mở rộng được xây dựng cho sự tăng trưởng bền vững. Bằng cách kết hợp telemetry hạ tầng của NVIDIA và tăng tốc bằng DPU với trí tuệ về lưu lượng và các năng lực bảo mật của F5, các công ty đang giúp doanh nghiệp chuyển đổi các nhà máy AI thành những nền tảng hiệu quả, có thể kiếm tiền và sẵn sàng cho kỷ nguyên do tác nhân điều phối.
** Tài liệu hỗ trợ**
** Blog:** ** Các nhà máy AI cần hạ tầng thông minh. Kết quả mới từ The Tolly Group cho thấy vì sao. ** Report:** ** Kiểm thử độc lập bởi Tolly: F5 BIG-IP Next for Kubernetes
MENAFN25032026007116015312ID1110904062