Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Vultr Phát Hành Suy Luận AI Rubin Trên Toàn Cầu Arabian Post
(MENAFN- The Arabian Post)
Nhà cung cấp hạ tầng đám mây Vultr đã giới thiệu một hệ thống suy luận trí tuệ nhân tạo sẵn sàng cho sản xuất dựa trên nền tảng Rubin của NVIDIA, đánh dấu sự mở rộng đáng kể trong hợp tác của họ khi các doanh nghiệp tăng tốc áp dụng các khối lượng công việc AI sinh tạo.
Việc triển khai được thiết kế để cung cấp khả năng suy luận mở rộng, tiết kiệm chi phí trên mạng lưới đám mây toàn cầu của Vultr, nhắm vào các doanh nghiệp muốn vận hành các mô hình AI mà không phải đầu tư lớn vào hạ tầng chuyên dụng như thường lệ. Nền tảng Rubin, được xem là kiến trúc thế hệ tiếp theo của NVIDIA dành cho suy luận AI, tập trung vào việc cung cấp khả năng xử lý cao hơn và độ trễ thấp hơn cho các ứng dụng thời gian thực.
Các lãnh đạo tham gia vào việc ra mắt cho biết hệ thống mới tích hợp tăng tốc phần cứng, các lớp phần mềm tối ưu và công cụ điều phối thành một giải pháp thống nhất. Cách tiếp cận này cho phép các doanh nghiệp triển khai và quản lý các khối lượng công việc suy luận với độ phức tạp giảm đi, đặc biệt cho các ứng dụng như mô hình ngôn ngữ lớn, hệ thống đề xuất và hệ thống thị giác máy tính.
Thông báo này phản ánh một xu hướng lớn hơn trong hệ sinh thái AI, nơi nhu cầu đã chuyển từ đào tạo mô hình sang suy luận quy mô lớn. Trong khi đào tạo vẫn tiêu tốn nhiều tài nguyên, các nhà phân tích ngành nhận định rằng khối lượng công việc suy luận chiếm phần lớn chi phí vận hành sau khi mô hình được triển khai. Do đó, các công ty đang tìm kiếm hạ tầng cân bằng giữa hiệu suất và hiệu quả, đặc biệt khi dịch vụ AI được tích hợp vào các ứng dụng hướng tới khách hàng.
Sự mở rộng của Vultr diễn ra trong bối cảnh các nhà cung cấp đám mây cạnh tranh để phân biệt khả năng AI của họ. Các nền tảng quy mô lớn đã đầu tư mạnh vào chip AI độc quyền và hệ sinh thái tích hợp dọc, trong khi các nhà cung cấp nhỏ hơn đang định vị mình như các lựa chọn linh hoạt, cung cấp các cấu hình chuyên biệt. Bằng cách hợp tác chặt chẽ với kiến trúc Rubin của NVIDIA, Vultr hướng tới việc chiếm lĩnh một phân khúc thị trường ưu tiên hiệu suất mà không bị phụ thuộc vào nhà cung cấp duy nhất.
Xem thêm TPConnects ra mắt lớp MCP cho bán lẻ AI của hãng hàng không
NVIDIA đã tăng cường hợp tác với các nhà cung cấp dịch vụ đám mây để mở rộng phạm vi của phần cứng và phần mềm AI của mình. Nền tảng Rubin dựa trên các kiến trúc trước đó nhưng giới thiệu các cải tiến về băng thông bộ nhớ, hiệu quả kết nối liên kết và tối ưu phần mềm. Những cải tiến này nhằm hỗ trợ các mô hình AI ngày càng phức tạp hơn, bao gồm các ứng dụng sinh tạo như chatbot, tổng hợp hình ảnh và phân tích thời gian thực.
Các nhà quan sát ngành nhận định rằng hiệu quả suy luận đã trở thành yếu tố then chốt khi các tổ chức mở rộng triển khai AI. Việc chạy liên tục các mô hình lớn có thể tạo ra chi phí vận hành đáng kể, đặc biệt khi triển khai trên nhiều khu vực. Các giải pháp giảm tiêu thụ năng lượng và tối đa hóa sử dụng tài nguyên đang thu hút sự chú ý, đặc biệt trong các doanh nghiệp muốn có cấu trúc giá dự đoán được.
Giải pháp của Vultr tích hợp các môi trường đã được cấu hình sẵn, cho phép các nhà phát triển triển khai mô hình bằng các framework phổ biến, giảm thiểu công đoạn tùy chỉnh phức tạp. Công ty cũng nhấn mạnh hỗ trợ các công cụ mã nguồn mở, phản ánh xu hướng tương tác trong hạ tầng AI. Cách tiếp cận này khác biệt so với một số hệ sinh thái độc quyền yêu cầu tích hợp chặt chẽ hơn nhưng mang lại tối ưu hóa sâu hơn.
Việc triển khai toàn cầu cho thấy nỗ lực đáp ứng nhu cầu khu vực về dịch vụ AI, đặc biệt ở các thị trường có yêu cầu về độ trễ và quyền chủ quyền dữ liệu cao. Bằng cách phân phối khả năng suy luận qua nhiều trung tâm dữ liệu, Vultr hướng tới việc cung cấp phản hồi nhanh hơn và tuân thủ các quy định địa phương. Điều này dự kiến sẽ đặc biệt phù hợp với các lĩnh vực như tài chính, y tế và viễn thông, nơi tiêu chuẩn xử lý dữ liệu rất nghiêm ngặt.
Các nhà phân tích nhận định rằng mối quan hệ hợp tác này làm nổi bật ảnh hưởng ngày càng lớn của NVIDIA trong lĩnh vực hạ tầng AI. Phần cứng của công ty đã trở thành nền tảng cho cả khối lượng công việc đào tạo và suy luận, và hệ sinh thái phần mềm của họ tiếp tục mở rộng. Tuy nhiên, dựa vào một nhà cung cấp duy nhất cũng đặt ra các câu hỏi về hạn chế nguồn cung và biến động giá, những vấn đề đã ảnh hưởng đến thị trường bán dẫn toàn cầu.
Xem thêm OpenAI báo cáo việc sử dụng ChatGPT liên quan Trung Quốc trong các hoạt động tấn công mạng
Đối với các doanh nghiệp, việc có sẵn một hệ thống suy luận sẵn sàng cho sản xuất giúp giảm rào cản gia nhập thị trường AI. Thay vì xây dựng hạ tầng từ đầu, các tổ chức có thể triển khai mô hình qua các dịch vụ quản lý, cung cấp khả năng mở rộng và hỗ trợ vận hành. Xu hướng này dự kiến sẽ thúc đẩy nhanh quá trình tích hợp AI vào các quy trình kinh doanh, từ tự động hóa dịch vụ khách hàng đến phân tích dự đoán.
Trong khi đó, cạnh tranh trong lĩnh vực suy luận ngày càng gay gắt. Các nhà cung cấp đám mây và nhà sản xuất chip khác đang phát triển các giải pháp thay thế nhằm giảm phụ thuộc vào kiến trúc dựa trên GPU. Một số đang khám phá các bộ tăng tốc chuyên dụng hoặc các phương pháp lai kết hợp CPU, GPU và silicon tùy chỉnh để tối ưu hiệu suất cho các khối lượng công việc cụ thể.
Có vấn đề gì không? The Arabian Post cố gắng cung cấp thông tin chính xác và đáng tin cậy nhất cho độc giả. Nếu bạn tin rằng đã phát hiện ra lỗi hoặc sự không nhất quán trong bài viết này, xin vui lòng liên hệ với đội ngũ biên tập của chúng tôi tại editor[at]thearabianpost[dot]com. Chúng tôi cam kết xử lý nhanh chóng mọi thắc mắc và duy trì tiêu chuẩn báo chí cao nhất.