Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Vultr Meluncurkan Inferensi AI Rubin Secara Global Arabian Post
(MENAFN- The Arabian Post)
Penyedia infrastruktur cloud Vultr telah memperkenalkan tumpukan inferensi kecerdasan buatan yang siap produksi yang dibangun di atas platform Rubin NVIDIA, menandai ekspansi signifikan dari kolaborasi mereka saat perusahaan mempercepat adopsi beban kerja AI generatif.
Penerapan ini dirancang untuk menyediakan kemampuan inferensi yang skalabel dan hemat biaya di seluruh jaringan cloud global Vultr, menargetkan bisnis yang ingin mengoperasionalkan model AI tanpa pengeluaran modal tinggi yang biasanya terkait dengan infrastruktur khusus. Platform Rubin, yang diposisikan sebagai arsitektur generasi berikutnya dari NVIDIA untuk inferensi AI, fokus pada memberikan throughput lebih tinggi dan latensi lebih rendah untuk aplikasi waktu nyata.
Eksekutif yang terlibat dalam peluncuran menyatakan bahwa tumpukan baru ini mengintegrasikan akselerasi perangkat keras, lapisan perangkat lunak yang dioptimalkan, dan alat orkestrasi ke dalam satu penawaran terpadu. Pendekatan ini memungkinkan perusahaan untuk menerapkan dan mengelola beban kerja inferensi dengan kompleksitas yang berkurang, terutama untuk aplikasi seperti model bahasa besar, mesin rekomendasi, dan sistem penglihatan komputer.
Pengumuman ini mencerminkan pergeseran yang lebih luas dalam ekosistem AI, di mana permintaan telah bergeser dari pelatihan model menuju inferensi dalam skala besar. Meskipun pelatihan tetap memerlukan sumber daya yang besar, analis industri mencatat bahwa beban kerja inferensi menyumbang sebagian besar biaya operasional setelah model diterapkan. Oleh karena itu, perusahaan mencari infrastruktur yang menyeimbangkan kinerja dan efisiensi, terutama saat layanan AI diintegrasikan ke dalam aplikasi yang berhadapan langsung dengan pelanggan.
Ekspansi Vultr datang di saat penyedia cloud bersaing untuk membedakan kemampuan AI mereka. Platform hyperscale telah berinvestasi besar dalam chip AI proprietary dan ekosistem terintegrasi secara vertikal, sementara penyedia yang lebih kecil memposisikan diri sebagai alternatif yang fleksibel dengan konfigurasi khusus. Dengan menyelaraskan secara erat dengan arsitektur Rubin NVIDIA, Vultr berusaha menangkap segmen pasar yang memprioritaskan kinerja tanpa terkunci vendor.
Lihat juga TPConnects luncurkan lapisan MCP untuk ritel AI maskapai penerbangan
NVIDIA telah memperkuat kemitraannya dengan penyedia layanan cloud untuk memperluas jangkauan perangkat keras dan perangkat lunak AI-nya. Platform Rubin dibangun berdasarkan arsitektur sebelumnya tetapi memperkenalkan peningkatan dalam bandwidth memori, efisiensi interkoneksi, dan optimisasi perangkat lunak. Peningkatan ini dimaksudkan untuk mendukung model AI yang semakin kompleks, termasuk yang digunakan dalam aplikasi generatif seperti chatbot, sintesis gambar, dan analitik waktu nyata.
Pengamat industri menyoroti bahwa efisiensi inferensi telah menjadi faktor kritis saat organisasi memperluas penerapan AI. Menjalankan model besar secara terus-menerus dapat menghasilkan biaya operasional yang besar, terutama saat diterapkan di berbagai wilayah. Solusi yang mengurangi konsumsi daya dan memaksimalkan utilisasi semakin mendapatkan perhatian, terutama di kalangan perusahaan yang menginginkan struktur harga yang dapat diprediksi.
Penawaran Vultr mencakup lingkungan yang telah dikonfigurasi sebelumnya yang memungkinkan pengembang untuk menerapkan model menggunakan kerangka kerja yang umum digunakan, mengurangi kebutuhan akan kustomisasi yang ekstensif. Perusahaan juga menekankan dukungan untuk alat sumber terbuka, mencerminkan tren menuju interoperabilitas dalam infrastruktur AI. Pendekatan ini berbeda dengan beberapa ekosistem proprietary yang memerlukan integrasi yang lebih ketat tetapi menawarkan optimisasi yang lebih mendalam.
Peluncuran global ini menunjukkan upaya untuk memenuhi permintaan regional terhadap layanan AI, terutama di pasar di mana latensi dan persyaratan kedaulatan data sangat penting. Dengan mendistribusikan kemampuan inferensi di berbagai pusat data, Vultr bertujuan untuk memungkinkan waktu respons yang lebih cepat dan kepatuhan terhadap regulasi lokal. Hal ini diharapkan akan sangat relevan untuk sektor seperti keuangan, kesehatan, dan telekomunikasi, di mana standar penanganan data sangat ketat.
Analis mencatat bahwa kemitraan ini menegaskan pengaruh yang semakin besar dari NVIDIA dalam lanskap infrastruktur AI. Perangkat keras perusahaan ini telah menjadi fondasi dari beban kerja pelatihan dan inferensi, dan ekosistem perangkat lunaknya terus berkembang. Namun, ketergantungan pada satu vendor juga menimbulkan pertanyaan tentang keterbatasan pasokan dan dinamika harga, isu yang telah mempengaruhi pasar semikonduktor secara lebih luas.
Lihat juga OpenAI laporkan penggunaan ChatGPT terkait China dalam operasi serangan siber
Bagi perusahaan, ketersediaan tumpukan inferensi yang siap produksi mengurangi hambatan untuk adopsi AI. Alih-alih membangun infrastruktur dari awal, organisasi dapat menerapkan model menggunakan layanan terkelola yang menyediakan skalabilitas dan dukungan operasional. Perubahan ini diperkirakan akan mempercepat integrasi AI ke dalam proses bisnis, mulai dari otomatisasi layanan pelanggan hingga analitik prediktif.
Pada saat yang sama, kompetisi di ruang inferensi semakin intens. Penyedia cloud dan produsen chip lain mengembangkan solusi alternatif yang bertujuan mengurangi ketergantungan pada arsitektur berbasis GPU. Beberapa mengeksplorasi akselerator khusus atau pendekatan hibrid yang menggabungkan CPU, GPU, dan silikon kustom untuk mengoptimalkan kinerja untuk beban kerja tertentu.
Ada masalah yang perlu dilaporkan? The Arabian Post berupaya menyampaikan informasi yang paling akurat dan dapat diandalkan kepada pembaca. Jika Anda yakin menemukan kesalahan atau ketidakkonsistenan dalam artikel ini, jangan ragu untuk menghubungi tim editorial kami di editor[at]thearabianpost[dot]com. Kami berkomitmen untuk menanggapi kekhawatiran Anda secara cepat dan menjaga integritas jurnalistik tertinggi.