«Новий покоління ШІ» від GPU до LPU: NVIDIA активно просувається у сфері обчислювальних чипів для інференції, Дженсен Хуанг знову робить важливий крок

robot
Генерація анотацій у процесі

«AI нове покоління» — від GPU до LPU: NVIDIA активно атакує ринок чипів для інференсу, Дженсен Хуанг робить вирішальний хід

17 березня вночі на GTC 2026 CEO NVIDIA Дженсен Хуанг представив новий інструмент — Groq 3 LPU — і розпочав активний наступ на ринок чипів для інференсу.

Міняється вектор розвитку індустрії ШІ. Останні кілька років усі зводили зусилля до того, щоб «тренувати моделі» — підгодовували даними GPU, щоб він виріс до інтелекту. Тоді GPU NVIDIA були єдиними королями, їх не міг поколихнути ніхто, але за ці два роки агенти масово й потоком пішли на ринок: Manus вирвався в широкий медіапростір, OpenClaw заполонив стрічки, виробники моделей і хмарні провайдери почали заробляти на продажі токенів, а Cerebras піднімали прапор «швидше, дешевше» і виривали проломи на території, яку NVIDIA роками тримала беззастережно.

Промисловість нарешті усвідомила: тренування тривають, але «інференс» уже став мейнстрімом. NVIDIA, звісно, не могла упустити цю ринкову можливість: цей «пиріг» інференсу вона теж має розділити. 17 березня вночі на GTC 2026 CEO NVIDIA Дженсен Хуанг представив новий інструмент — Groq 3 LPU — і розпочав активний наступ на ринок чипів для інференсу. Водночас він озвучив цифри: до кінця 2027 року річний дохід двох продуктових ліній — Blackwell і Rubin — сягне 1 трильйона доларів, тобто удвічі перевищить прогноз дворічної давності.

** Тренування й інференс — з двох рук**

Цього разу NVIDIA офіційно представила платформу Vera Rubin, яка укомплектована сімома чипами: Rubin GPU, Vera CPU, ConnectX-9 SuperNIC, BlueField-4 DPU, NVLink 6 Switch, Spectrum-X 102.4T CPO, а також новим інтегрованим Groq 3 LPU.

«LPU» — це повна назва «Language Processing Unit», тобто модуль обробки мови; це спеціалізований чип для прискорення ШІ-інференсу. Rubin GPU у поєднанні з Groq LPU підніме пропускну здатність із нинішніх 100 токенів на секунду до 1500 токенів на секунду або навіть більше, тим самим ідеально підтримуючи сценарії взаємодії ШІ-агентів.

NVIDIA також представила повний стелаж, призначений для розміщення нових прискорювачів Groq — Groq LPX. Як розповів віцепрезидент NVIDIA з питань супермасштабного виробництва та високопродуктивних обчислень Ian Buck, Groq LPX підвищить продуктивність декодування «для кожного токена на кожному шарі» моделі, а також дозволить Rubin обслуговувати наступні передові напрями в галузі штучного інтелекту: багатомодальні системи (multi-agent systems). Ці системи потребують інтерактивної продуктивності тоді, коли моделі налічують десятки трильйонів параметрів, а контекстні вікна охоплюють мільйони токенів.

У NVIDIA намір завойовувати ринок інференс-чипів не народився сьогодні — його готували заздалегідь. У грудні 2025 року компанія за приблизно 20 мільярдів доларів США придбала ключові технічні активи Groq, а її засновник приєднався до NVIDIA. Groq 3 LPU є першим публічним результатом після цієї угоди.

Згідно з прогнозною моделлю від відділу досліджень Global Investment Research компанії Goldman Sachs, у чипах для AI-серверів частка поставок чипів, що не є GPGPU, демонструватиме чітку висхідну тенденцію: очікується, що вона зростатиме з 36% у 2024 році до 45% у 2027 році. Водночас частка поставок GPGPU-чипів, за прогнозом, знижуватиметься з 64% у 2024 році до 55% у 2027 році.

Старший аналітик InSemi Research Цінь Фенвей у розмові з кореспондентом цього видання зазначив, що GPU будуть більш конкурентними в сценаріях навчання базових моделей, де вимоги до універсальності вищі (наприклад, у державних хмарних сервісах), а також у сценаріях паралельних обчислень. Натомість ASIC (включно з TPU, DPU, NPU, LPU тощо) на етапі розгортання моделей і в сценаріях інференсу мають відносні переваги, оскільки ці сценарії висувають вищі вимоги до енергоефективності та затримок відповіді.

“Тому вихід NVIDIA на ринок LPU — це стратегічний крок у відповідь на перехід попиту на обчислювальні потужності ШІ з «тренування» до «інференсу», ключовий хід, щоб закрити прогалину. Завдяки більш точному продуктному позиціонуванню вона реагує на зміни ринку й виклики конкурентів”, — сказав кореспонденту цього видання директор Інституту глибинних технологічних досліджень Чжан Сяорунь.

За повідомленнями медіа, план NVIDIA щодо дедалі більшого зростання потреб у інференсі вже приніс їй віддачу: минулого місяця OpenAI заявила, що уклала з NVIDIA угоду на закупівлю чипів із «спеціалізованими можливостями для інференсу».

** Від чипів до екосистеми «заводів»**

Протягом останніх кількох років генеративний ШІ розбурхав ринок: тренування великих моделей стало абсолютною «чорною дірою» обчислювальної потужності. Завдяки домінуванню GPU NVIDIA отримала більшість вигод від цієї хвилі, а її показники та ринкова капіталізація зростали одночасно в обох напрямах — вона заробляла рясно.

Однак, коли змагання за параметрами моделей увійшло в фазу зниження граничної ефективності, тренування великих моделей після двох років стрімкої гонитви нарешті сповільнилося. Починаючи з 2025 року вісь конкуренції почала зміщуватися — на перші ролі вийшли агенти та інженерія контексту. Найпряміший сигнал: OpenClaw захопив соціальні платформи — від технологічного кола до виходу за його межі — і втиснувся в інформаційні потоки звичайних людей.

Агенти — це одна з ключових складових, що стимулюють зростання попиту на ринку інференсу. Їхні основні сценарії більше орієнтовані на інференс, а не на тренування. Цю думку чітко підтверджують численні авторитетні дослідження та галузеві аналітики, тож коли можливості ШІ еволюціонували з етапу тренування базових моделей до агентів, які фокусуються на побудові робочих процесів, центр тяжіння попиту на обчислювальні потужності ШІ змістився з тренування на інференс.

А оскільки NVIDIA є головним гравцем у сфері ШІ-інфраструктури, їй природно потрібно відповідати ринковим трендам і оновлюватися — причому на рівні всієї екосистеми.

На цьому GTC, окрім запуску LPU, NVIDIA також разом із командою на чолі з Peter Steinberger, засновником OpenClaw, зібрала низку провідних експертів із безпеки та обчислень і представила референсну архітектуру NeMoClaw. Вона містить технологію OpenShell, механізми мережевого захисту та можливості приватної маршрутизації, що дозволяє компаніям безпечно запускати системи ШІ-агентів у власному приватному середовищі.

NVIDIA навіть представила референсну конструкцію Vera Rubin DSX AI factory, яка показує, як проектувати, будувати та експлуатувати весь стек базової інфраструктури AI-заводу. Він охоплює обчислення, мережу NVIDIA Spectrum-XEthernet і зберігання, щоб досягти відтворюваної, масштабованої та найкращої продуктивності кластерів.

Дженсен Хуанг заявив: «У епоху ШІ розумні токени є новою валютою, а AI-завод — це інфраструктура, яка створює ці токени. Завдяки референсній конструкції Vera Rubin DSX AI Factory та Blueprint Omniverse DSX (цифровий двійник-блакитний кресленик) ми надаємо базу для побудови AI-заводів із найвищою продуктивністю у світі, прискорюємо час до першого доходу та максимізуємо масштаби й енергоефективність».

Що стосується того, як після виходу LPU зміниться частка флагманських GPU NVIDIA, кореспондент «Хуасіа шибао» звернувся до NVIDIA з цим питанням. На момент підготовки матеріалу відповіді не надійшло. «Те, що NVIDIA заходить на ринок інференс-чипів, не означає, що бізнес із GPU зазнає збитків. Навпаки, у синергії з LPU вона відкриє для себе ще ширші ринкові можливості», — сказав Чжан Сяорунь.

Експерт з інституту «ZhiCan ZhiKu» (спеціально запрошений) Юань Бо вказав, що в короткостроковій перспективі GPU завдяки потужній адаптивності в сценаріях та «технологічним» бар’єрам екосистеми домінуватимуть на ринку, особливо в сценаріях тренування ШІ. У довгостроковій перспективі ж дві лінії не є повністю протилежними: вони рухатимуться до злиття та ринкового розшарування. «На рівні заліза GPU інтегруватимуть сильніші спеціалізовані ядра, а спеціалізовані чипи також зростатимуть у можливостях програмованості. На ринку, ймовірно, сформується розшарований ландшафт: ті, хто домінуватиме в інноваціях і універсальних платформах, а також ті, хто глибоко працюватиме в масштабованому інференсі на спеціалізованих чипах».

На ринку ASIC, власне, вже зібралося чимало опонентів NVIDIA, включно із закордонними Cerebras, китайськими компаніями Cambrian (Ханьвэй Цзі), Huawei, компанією Suirui (燧原科技) та ін. Чжан Сяорунь вважає, що вихід NVIDIA на інференс-чипи для вітчизняних виробників є водночас викликом і каталізатором, створюючи складну ситуацію, де співіснуватимуть «притискання» та «примус до дії». Це пришвидшить перетасовку в галузі та оновлення технологій.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Популярні активності Gate Fun

    Дізнатися більше
  • Рин. кап.:$2.27KХолдери:2
    0.00%
  • Рин. кап.:$2.37KХолдери:2
    1.04%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.24KХолдери:1
    0.00%
  • Рин. кап.:$2.25KХолдери:1
    0.00%
  • Закріпити