Уолл-Стріт прокоментувала GTC: За визначенням Nvidia, обчислювальна потужність — це доходи, а Token — новий товар масового споживання

Щорічна конференція GTC компанії NVIDIA передає ключовий сигнал: бізнес-логіка AI обчислень зазнає фундаментальної перебудови — Token став новою сировиною, а обчислювальна потужність — доходом.

Керівництво NVIDIA на цій конференції значно підвищило прогноз продажів дата-центрів з попередніх 500 мільярдів доларів (з урахуванням до 2026 року) до понад 1 трильйона доларів (з урахуванням сумарних показників 2025–2027 років), а також чітко заявило, що продажі незалежних процесорів Vera CPU та системних рядів LPX будуть додатково враховані поза цим показником. Уолл-стріт сприймає цю конференцію як сильний підтвердження тривалості AI-циклу NVIDIA.

За даними «追風交易台», останній звіт JPMorgan вказує, що ця цифра означає, що у порівнянні з поточними очікуваннями Уолл-стріт щодо доходів дата-центрів у 2026–2027 роках існує щонайменше 50–70 мільярдів доларів потенційного зростання.

Звіт Bank of America безпосередньо цитує заяву керівництва NVIDIA — «Token — це нова сировина, обчислювальна потужність дорівнює доходу» — і зазначає, що система Blackwell вже зменшила вартість одного Token у порівнянні з попереднім поколінням Hopper до 35 разів, а серія Rubin, яка незабаром з’явиться, має потенціал знизити цю вартість ще в 2–35 разів, залежно від типу навантаження та архітектурних налаштувань.

У рамках наративу NVIDIA ця безперервна тенденція зменшення вартості Token є основним рушієм масштабного зростання попиту.

Збільшення видимості попиту вдвічі, двонапрямний драйвер — великомасштабні клієнти та корпоративний ринок

Керівництво NVIDIA повідомило, що високовірогідні замовлення на системи Blackwell та Vera Rubin вже перевищили 1 трильйон доларів, що вдвічі більше за показник у 500 мільярдів доларів, оголошений на конференції GTC у жовтні 2025 року. Також зазначено, що додаткові замовлення та резерви на 2027 рік можуть продовжувати накопичуватися протягом наступних 6–9 місяців.

Структура попиту стає більш різноманітною: приблизно 60% припадає на надмасштабних хмарних провайдерів (які внутрішньо переходять від рекомендаційних/пошукових навантажень до великих мовних моделей), решта 40% — на компанії, що використовують CUDA у хмарних AI-проєктах, партнерів NVIDIA у хмарі, суверенні AI та промислові/корпоративні клієнти.

Bank of America зазначає, що новий прогноз у 1 трильйон доларів відповідає попереднім очікуванням Уолл-стріт щодо доходів дата-центрів за три роки приблизно у 970 мільярдів доларів, підтверджуючи логіку, аналогічну до прогнозу у 450 мільярдів доларів, що базувався на попередній оцінці у 500 мільярдів у жовтні 2025 року.

Варто звернути увагу, що керівництво NVIDIA у цій конференції значну увагу приділило опису потреби прискорення обробки традиційних корпоративних навантажень.

Компанія оголосила про співпрацю з IBM (для прискорення WatsonX), Google Cloud (прискорення BigQuery, економія близько 76% на витратах Snap), Dell (платформи даних AI) та представила дві основні бібліотеки CUDA-X — cuDF і cuVS.

JPMorgan вважає, що цей напрямок «дуже недооцінений ринком» — оскільки закон Мура вже втратив свою динаміку, єдиним життєздатним альтернативним шляхом є спеціалізоване апаратне прискорення, що розширює цільовий ринок NVIDIA за межі циклів тренування/виведення AI.

Інтеграція Groq LPU: найважливіша новинка архітектурного рівня

JPMorgan оцінив інтеграцію Groq 3 LPU з Vera Rubin як «найважливішу новинку архітектурного рівня» на цій конференції GTC.

Ця роз’єднана архітектура для обробки inference поєднує GPU Rubin (висока пропускна здатність, 288 ГБ HBM4, 22 ТБ/с пропускна здатність, 50 PFLOPS NVFP4) з LPU від Groq (низька затримка, 500 МБ внутрішньої SRAM, 150 ТБ/с пропускна здатність SRAM, 1.2 PFLOPS FP8): попереднє заповнення виконується на Rubin, увага до декодування також працює на Rubin, тоді як фронтальні мережі/генерація Token — на Groq LPU.

LPX-стек інтегрує 256 LPU, забезпечує 128 ГБ сумарної SRAM, 40 ПБ/с пропускної здатності пам’яті та 315 PFLOPS обчислювальної потужності для inference, очікується вихід у третьому кварталі 2026 року.

Керівництво NVIDIA заявило, що для навантажень, що вимагають надвисокої швидкості обробки Token (генерація коду, інженерні обчислення, довгий контекст), близько 25% енергоспоживання дата-центрів буде спрямовано на LPX, решта 75% — на конфігурацію Vera Rubin NVL72.

Дані Bank of America показують, що «система Rubin у поєднанні з SRAM LPX може підвищити ефективність високорівневих низьколатентних навантажень у порівнянні з попереднім поколінням у 35 разів». JPMorgan додає, що ця архітектура безпосередньо відповідає на фундаментальну проблему — неможливість одночасно оптимізувати пропускну здатність (обмежену FLOPS) і затримку (обмежену пропускною здатністю), що дозволяє NVIDIA ефективно конкурувати на високорівневому ринку inference, традиційно домінованому ASIC-виробниками.

Паралельний розвиток кабелів та CPO: кілька шляхів без єдиного ризику

Керівництво NVIDIA прямо відповіло на суперечку між кабелями та CPO, підтвердивши одночасний розвиток обох напрямків.

У поколінні Vera Rubin, Oberon-стек використовує кабелі для розширення до NVL72, а оптичні рішення — до NVL576; масове виробництво комутаторів Spectrum-6 SPX з інтегрованою оптикою, розроблених NVIDIA у співпраці з TSMC, дозволяє підвищити енергоефективність у 5 разів порівняно з традиційними модульованими трансиверами, а надійність — у 10 разів.

Щодо Rubin Ultra (друга половина 2027 року), Kyber-стек використовує кабель NVLink для розширення (до 144 GPU), а також пропонує альтернативу — NVLink з CPO. Feynman (2028) буде підтримувати обидва варіанти одночасно та матиме Spectrum-7 (204T, CPO) для горизонтального масштабування.

Bank of America підкреслює, що використання CPO для розширення/горизонтального масштабування є опційним для клієнтів, які можуть продовжувати використовувати кабелі, доки самі не визначать час для переходу. JPMorgan погоджується і прогнозує, що до 2027 року кабельне розширення залишатиметься домінуючим у конфігураціях NVL72/NVL144, тоді як частка CPO поступово зростатиме у горизонтальному масштабуванні та конфігураціях NVL576+.

Vera CPU: новий мільярдний дохід для AI-агентів

Керівництво NVIDIA чітко заявило, що незалежний бізнес Vera CPU «уже визначений як мільярдний рівень доходу», і Bank of America зазначає, що ця стаття доходу ще не врахована у поточних очікуваннях ринку, що робить її додатковим внеском.

Vera CPU оснащений 88 власними ARM-ядрами Olympus, пам’яттю LPDDR5X із пропускною здатністю 1.2 ТБ/с (зменшеною вдвічі порівняно з традиційними серверними CPU), а також з’єднується з GPU через NVLink-C2C на швидкості 1.8 ТБ/с (у 7 разів швидше за PCIe Gen 6). Стек Vera CPU містить 256 рідинних охолоджуваних CPU, підтримує понад 22 500 одночасних процесорів.

Керівництво підкреслює, що CPU стає ключовим вузлом у розширенні AI-агентів — для навчання з підсиленим навчанням і робочих потоків агентів потрібне багато CPU для тестування та верифікації вихідних даних моделей GPU. Meta вже масштабно розгортає попереднє покоління Grace CPU, а Vera замінить його у 2027 році.

JPMorgan кваліфікує цей дохід як високоприбутковий, з можливістю повторного використання (разом із GPU-стеками у AI-заводах), і він тісно пов’язаний із кривою активізації AI-агентів, яку активно стимулює NVIDIA.

Дорожня карта продуктів до 2028 року, послідовне посилення архітектурного ритму

NVIDIA підтверджує щорічний графік випуску платформ: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).

Rubin Ultra матиме 4-міжгруповий GPU, 1 ТБ HBM4e, новий LPU-чип LP35 (з впровадженням NVFP4), а Kyber-стек підтримуватиме до 144 GPU на NVLink (7-ше покоління, 3.6 Тб/с на GPU, сумарна пропускна здатність NVL576 — 1.5 Пб/с).

Деталі Feynman перевищують очікування ринку:

Новий GPU виготовлятиметься за технологією TSMC A16 (1.6 нм), з використанням багатошарових чипів і кастомізованої HBM; новий CPU отримав назву Rosa (на честь Rosalind Franklin), спеціально розроблений для оркестрування навантажень із кількома GPU, LPU, пам’яттю та мережею; новий LPU — LP40, розроблений внутрішньою командою Groq; також включає BlueField-5 DPU, супермережеву карту ConnectX-10, NVLink 8 та Spectrum-7 (204T, CPO).

JPMorgan вважає, що вертикально інтегрована платформа NVIDIA (з уже сімома чипами, п’ятьма системами та програмним стеком) важко копіюється, а прискорення inference та традиційних навантажень сприяє структурному розширенню цільового ринку та постійному розширенню клієнтської бази, що підтримує більш тривалий і стійкий цикл капіталовкладень у AI, ніж очікує ринок.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити