Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Vultr запускає глобальну Rubin AI Inference Arabian Post
(MENAFN- The Arabian Post)
Постачальник хмарної інфраструктури Vultr представив готовий до виробничого використання стек штучного інтелекту для інференції, побудований на платформі NVIDIA Rubin, що є значним розширенням їхньої співпраці у зв’язку з прискоренням впровадження генеративних AI-навантажень підприємствами.
Розгортання розроблено для забезпечення масштабованих та економічних можливостей інференції по всій глобальній хмарній мережі Vultr, орієнтоване на бізнеси, які прагнуть впровадити AI-моделі без високих капітальних витрат, характерних для спеціалізованої інфраструктури. Платформа Rubin, яка позиціонується як архітектура наступного покоління для AI-інференції від NVIDIA, зосереджена на підвищенні пропускної здатності та зниженні затримки для застосувань у реальному часі.
Керівники, залучені до запуску, зазначили, що новий стек інтегрує апаратне прискорення, оптимізовані програмні шари та інструменти оркестрації у єдину пропозицію. Такий підхід дозволяє підприємствам розгортати та керувати навантаженнями інференції з меншими складнощами, особливо для застосувань, таких як великі мовні моделі, системи рекомендацій та системи комп’ютерного зору.
Оголошення відображає ширший зсув у екосистемі AI, де попит перейшов від тренування моделей до масштабної інференції. Хоча тренування залишається ресурсомістким, аналітики галузі зазначають, що навантаження інференції становлять більшість операційних витрат після розгортання моделей. Тому компанії шукають інфраструктуру, яка балансуватиме продуктивність і ефективність, особливо враховуючи інтеграцію AI-сервісів у клієнтські застосунки.
Розширення Vultr відбувається у час, коли провайдери хмарних послуг змагаються за відмінність своїх AI-можливостей. Гігантські платформи інвестували значні кошти у власні AI-чипи та вертикально інтегровані екосистеми, тоді як менші провайдери позиціонують себе як гнучкі альтернативи з спеціалізованими конфігураціями. Тісна співпраця з архітектурою Rubin від NVIDIA дозволяє Vultr орієнтуватися на сегмент ринку, що цінує продуктивність без прив’язки до одного постачальника.
Дивіться також: TPConnects запускає MCP-слій для авіаційного AI-ретейлу
NVIDIA посилює партнерські відносини з провайдерами хмарних послуг для розширення впливу свого апаратного та програмного стеку AI. Платформа Rubin базується на попередніх архітектурах, але вводить покращення у пропускній здатності пам’яті, ефективності міжз’єднань та оптимізації програмного забезпечення. Ці покращення спрямовані на підтримку все більш складних AI-моделей, включаючи ті, що використовуються у генеративних застосуваннях, таких як чат-боти, синтез зображень та аналітика у реальному часі.
Спостерігачі галузі підкреслюють, що ефективність інференції стала критичним фактором у масштабуванні AI. Постійне запуск великих моделей може спричинити значні операційні витрати, особливо при розгортанні у кількох регіонах. Рішення, що зменшують споживання енергії та максимізують використання ресурсів, стають все більш популярними серед підприємств, які прагнуть передбачуваних цінових структур.
Пропозиція Vultr включає попередньо налаштовані середовища, що дозволяють розробникам розгортати моделі за допомогою поширених фреймворків, зменшуючи потребу у складних налаштуваннях. Компанія також підкреслює підтримку відкритих інструментів, що відображає тенденцію до інтероперабельності в інфраструктурі AI. Це контрастує з деякими пропрієтарними екосистемами, які вимагають тіснішої інтеграції, але пропонують глибшу оптимізацію.
Глобальний запуск свідчить про зусилля задовольнити регіональний попит на AI-послуги, особливо на ринках, де важливі затримки та вимоги до суверенітету даних. Розподіляючи можливості інференції між кількома дата-центрами, Vultr прагне забезпечити швидший час відповіді та відповідність місцевим регуляціям. Це особливо актуально для секторів, таких як фінанси, охорона здоров’я та телекомунікації, де стандарти обробки даних дуже суворі.
Аналітики відзначають, що партнерство підкреслює зростаючий вплив NVIDIA у сфері інфраструктури AI. Апаратура компанії стала основою як для тренувальних, так і для інференційних навантажень, а її екосистема програмного забезпечення продовжує розширюватися. Однак залежність від одного постачальника також викликає питання щодо обмежень у постачанні та цінової політики, що впливає на ширший ринок напівпровідників.
Дивіться також: OpenAI повідомляє про використання ChatGPT у кібератаках, пов’язаних із Китаєм
Для підприємств доступність готового до виробничого використання стеку інференції зменшує бар’єри для впровадження AI. Замість створення інфраструктури з нуля, організації можуть розгортати моделі за допомогою керованих сервісів, що забезпечують масштабованість і операційну підтримку. Очікується, що цей перехід прискорить інтеграцію AI у бізнес-процеси — від автоматизації обслуговування клієнтів до прогнозної аналітики.
Одночасно конкуренція у сфері інференції посилюється. Інші провайдери хмарних послуг і виробники чипів розробляють альтернативні рішення, спрямовані на зменшення залежності від архітектур на базі GPU. Деякі досліджують спеціалізовані прискорювачі або гібридні підходи, що поєднують CPU, GPU і власний силікон для оптимізації продуктивності конкретних навантажень.
Виявили проблему? The Arabian Post прагне надавати найточнішу та найнадійнішу інформацію своїм читачам. Якщо ви вважаєте, що в цій статті допущена помилка або невідповідність, будь ласка, не соромтеся зв’язатися з нашою редакцією за адресою editor[at]thearabianpost[dot]com. Ми прагнемо швидко реагувати на будь-які зауваження та підтримувати найвищі стандарти журналістської чесності.
MENAFN19032026000152002308ID1110881946