## NVIDIA Rubin платформа офіційно оголошена: ціна на інференс знизилася у 10 разів, GPU скорочено у 4 рази, доставка запланована на другу половину 2026 року
NVIDIA офіційно оголосила на CES 2025 про наступне покоління важливого продукту — AI-чип Rubin платформа, що продовжує традицію щорічних ітераційних оновлень. За словами генерального директора Jensen Huang, шість основних чипів Rubin вже повернулися з контрактних фабрик і пройшли ключові тестування, підтверджуючи можливість їх планового розгортання. Це означає, що NVIDIA зберігає лідерство у сфері AI-акселераторів і водночас реагує на побоювання Уолл-стріт щодо конкурентного тиску та тривалості інвестицій у AI.
### Вражаюче зростання продуктивності, значне зниження витрат
Щодо ціни (cena) Rubin, NVIDIA поки що не оприлюднила конкретних цінових пропозицій, але її економічна ефективність значно покращилася. У порівнянні з попередньою платформою Blackwell, продуктивність тренування Rubin зросла у 3.5 рази, а інференс — у 5 разів. Ще більш вражаючим є те, що Rubin здатен знизити вартість генерації токенів під час інференсу у 10 разів — це означає суттєве зниження операційних витрат для компаній, що залежать від великих моделей.
Крім того, Rubin зменшив кількість GPU, необхідних для тренування гібридних експертних моделей(MoE), у 4 рази. Це дозволяє компаніям досягати тих самих цілей продуктивності з меншими апаратними інвестиціями, безпосередньо підвищуючи окупність інвестицій у закупівлю.
### Три ключові стовпи технологічних інновацій
Платформа Rubin інтегрує п’ять проривних технологій. Зокрема, новий процесор Vera CPU побудований на 88 кастомних ядрах Olympus, базується на архітектурі Armv9.2 і має у два рази вищу продуктивність на ядро порівняно з конкурентами. Цей CPU спеціально оптимізований для AI-інференсу, і є найефективнішим процесором у сучасних масштабних AI-завданнях.
На GPU встановлено третє покоління трансформерних двигунів, що забезпечують 50 петафлопсів обчислювальної потужності NVFP4. Пропускна здатність одного GPU досягає 3.6TB/с, а цілком укомплектований VERA Rubin NVL72 — 260TB/с. Такий рівень пропускної здатності забезпечує достатню швидкість обробки даних для тренування та інференсу великих моделей.
Платформа також включає третє покоління секретних обчислювальних двигунів і друге покоління RAS( — системи забезпечення надійності, доступності та обслуговування), що охоплює CPU, GPU і NVLink, забезпечуючи моніторинг стану в реальному часі, механізми відмовостійкості та активне обслуговування. Весь модульний корпус має швидкість збирання і обслуговування у 18 разів вищу за Blackwell.
### Новий вибір для хмарних сервісів та AI-лабораторій
NVIDIA оголосила, що у другій половині 2026 року перші інстанси Rubin будуть розгорнуті кількома провідними хмарними провайдерами. Ці хмарні сервіси та інтегратори надаватимуть компаніям оренду обчислювальних ресурсів Rubin.
У сфері розробки AI-моделей відомі лабораторії, такі як OpenAI, Anthropic, Meta, Mistral AI і xAI, вже заявили про намір використовувати платформу Rubin для тренування більш масштабних і потужних моделей нового покоління. Генеральний директор OpenAI Sam Altman зазначив, що підвищення обчислювальної потужності безпосередньо сприяє еволюції інтелектуальних агентів, і переваги Rubin у продуктивності будуть і надалі стимулювати цей процес. Генеральний директор Anthropic Dario Amodei підкреслив, що покращена здатність Rubin підвищує якість інференсу і надійність моделей. Генеральний директор Meta Mark Zuckerberg наголосив, що підвищення ефективності Rubin є ключовим для розгортання передових AI-моделей для мільярдів користувачів по всьому світу.
### Повномасштабне розгортання у галузі
Виробники серверного обладнання, такі як Cisco, Dell, HPE, Lenovo і Supermicro, вже запланували лінійки серверів, сумісних із Rubin. Це свідчить про те, що Rubin — це не просто інновація у GPU, а драйвер усього екосистеми AI-інфраструктури.
Цього року NVIDIA вирішила раніше зазвичай оприлюднити деталі Rubin, що є стратегічним кроком для підтримки залежності галузі та підвищення інтересу ринку. Зазвичай компанія презентує глибокий огляд продуктів на конференції GTC у Каліфорнії навесні, але раннє розкриття на CES відображає посилення конкуренції у сфері AI.
### Довгострокові перспективи
Хоча інвестиційна спільнота все ще висловлює сумніви щодо тривалого зростання NVIDIA і сталості витрат на AI, компанія зберігає свої довгострокові прогнози зростання і очікує, що глобальний ринок AI досягне кількох трильйонів доларів. Виведення Rubin платформи на ринок означає, що NVIDIA продовжує лідирувати у розвитку AI-чипів, а також переосмислює конкурентоспроможність Rubin у плані витрат і ефективності, що вплине на інвестиційні рішення щодо AI-інфраструктури.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
## NVIDIA Rubin платформа офіційно оголошена: ціна на інференс знизилася у 10 разів, GPU скорочено у 4 рази, доставка запланована на другу половину 2026 року
NVIDIA офіційно оголосила на CES 2025 про наступне покоління важливого продукту — AI-чип Rubin платформа, що продовжує традицію щорічних ітераційних оновлень. За словами генерального директора Jensen Huang, шість основних чипів Rubin вже повернулися з контрактних фабрик і пройшли ключові тестування, підтверджуючи можливість їх планового розгортання. Це означає, що NVIDIA зберігає лідерство у сфері AI-акселераторів і водночас реагує на побоювання Уолл-стріт щодо конкурентного тиску та тривалості інвестицій у AI.
### Вражаюче зростання продуктивності, значне зниження витрат
Щодо ціни (cena) Rubin, NVIDIA поки що не оприлюднила конкретних цінових пропозицій, але її економічна ефективність значно покращилася. У порівнянні з попередньою платформою Blackwell, продуктивність тренування Rubin зросла у 3.5 рази, а інференс — у 5 разів. Ще більш вражаючим є те, що Rubin здатен знизити вартість генерації токенів під час інференсу у 10 разів — це означає суттєве зниження операційних витрат для компаній, що залежать від великих моделей.
Крім того, Rubin зменшив кількість GPU, необхідних для тренування гібридних експертних моделей(MoE), у 4 рази. Це дозволяє компаніям досягати тих самих цілей продуктивності з меншими апаратними інвестиціями, безпосередньо підвищуючи окупність інвестицій у закупівлю.
### Три ключові стовпи технологічних інновацій
Платформа Rubin інтегрує п’ять проривних технологій. Зокрема, новий процесор Vera CPU побудований на 88 кастомних ядрах Olympus, базується на архітектурі Armv9.2 і має у два рази вищу продуктивність на ядро порівняно з конкурентами. Цей CPU спеціально оптимізований для AI-інференсу, і є найефективнішим процесором у сучасних масштабних AI-завданнях.
На GPU встановлено третє покоління трансформерних двигунів, що забезпечують 50 петафлопсів обчислювальної потужності NVFP4. Пропускна здатність одного GPU досягає 3.6TB/с, а цілком укомплектований VERA Rubin NVL72 — 260TB/с. Такий рівень пропускної здатності забезпечує достатню швидкість обробки даних для тренування та інференсу великих моделей.
Платформа також включає третє покоління секретних обчислювальних двигунів і друге покоління RAS( — системи забезпечення надійності, доступності та обслуговування), що охоплює CPU, GPU і NVLink, забезпечуючи моніторинг стану в реальному часі, механізми відмовостійкості та активне обслуговування. Весь модульний корпус має швидкість збирання і обслуговування у 18 разів вищу за Blackwell.
### Новий вибір для хмарних сервісів та AI-лабораторій
NVIDIA оголосила, що у другій половині 2026 року перші інстанси Rubin будуть розгорнуті кількома провідними хмарними провайдерами. Ці хмарні сервіси та інтегратори надаватимуть компаніям оренду обчислювальних ресурсів Rubin.
У сфері розробки AI-моделей відомі лабораторії, такі як OpenAI, Anthropic, Meta, Mistral AI і xAI, вже заявили про намір використовувати платформу Rubin для тренування більш масштабних і потужних моделей нового покоління. Генеральний директор OpenAI Sam Altman зазначив, що підвищення обчислювальної потужності безпосередньо сприяє еволюції інтелектуальних агентів, і переваги Rubin у продуктивності будуть і надалі стимулювати цей процес. Генеральний директор Anthropic Dario Amodei підкреслив, що покращена здатність Rubin підвищує якість інференсу і надійність моделей. Генеральний директор Meta Mark Zuckerberg наголосив, що підвищення ефективності Rubin є ключовим для розгортання передових AI-моделей для мільярдів користувачів по всьому світу.
### Повномасштабне розгортання у галузі
Виробники серверного обладнання, такі як Cisco, Dell, HPE, Lenovo і Supermicro, вже запланували лінійки серверів, сумісних із Rubin. Це свідчить про те, що Rubin — це не просто інновація у GPU, а драйвер усього екосистеми AI-інфраструктури.
Цього року NVIDIA вирішила раніше зазвичай оприлюднити деталі Rubin, що є стратегічним кроком для підтримки залежності галузі та підвищення інтересу ринку. Зазвичай компанія презентує глибокий огляд продуктів на конференції GTC у Каліфорнії навесні, але раннє розкриття на CES відображає посилення конкуренції у сфері AI.
### Довгострокові перспективи
Хоча інвестиційна спільнота все ще висловлює сумніви щодо тривалого зростання NVIDIA і сталості витрат на AI, компанія зберігає свої довгострокові прогнози зростання і очікує, що глобальний ринок AI досягне кількох трильйонів доларів. Виведення Rubin платформи на ринок означає, що NVIDIA продовжує лідирувати у розвитку AI-чипів, а також переосмислює конкурентоспроможність Rubin у плані витрат і ефективності, що вплине на інвестиційні рішення щодо AI-інфраструктури.