Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Уолл-Стріт прокоментувала GTC: За визначенням Nvidia, обчислювальна потужність — це доходи, а Token — новий товар масового споживання
Щорічна конференція GTC компанії NVIDIA передає ключовий сигнал: бізнес-логіка AI обчислень зазнає фундаментальної перебудови — Token став новою сировиною, а обчислювальна потужність — доходом.
Керівництво NVIDIA на цій конференції значно підвищило прогноз продажів дата-центрів з попередніх 500 мільярдів доларів (з урахуванням до 2026 року) до понад 1 трильйона доларів (з урахуванням сумарних показників 2025–2027 років), а також чітко заявило, що продажі незалежних процесорів Vera CPU та системних рядів LPX будуть додатково враховані поза цим показником. Уолл-стріт сприймає цю конференцію як сильний підтвердження тривалості AI-циклу NVIDIA.
За даними «追風交易台», останній звіт JPMorgan вказує, що ця цифра означає, що у порівнянні з поточними очікуваннями Уолл-стріт щодо доходів дата-центрів у 2026–2027 роках існує щонайменше 50–70 мільярдів доларів потенційного зростання.
Звіт Bank of America безпосередньо цитує заяву керівництва NVIDIA — «Token — це нова сировина, обчислювальна потужність дорівнює доходу» — і зазначає, що система Blackwell вже зменшила вартість одного Token у порівнянні з попереднім поколінням Hopper до 35 разів, а серія Rubin, яка незабаром з’явиться, має потенціал знизити цю вартість ще в 2–35 разів, залежно від типу навантаження та архітектурних налаштувань.
У рамках наративу NVIDIA ця безперервна тенденція зменшення вартості Token є основним рушієм масштабного зростання попиту.
Збільшення видимості попиту вдвічі, двонапрямний драйвер — великомасштабні клієнти та корпоративний ринок
Керівництво NVIDIA повідомило, що високовірогідні замовлення на системи Blackwell та Vera Rubin вже перевищили 1 трильйон доларів, що вдвічі більше за показник у 500 мільярдів доларів, оголошений на конференції GTC у жовтні 2025 року. Також зазначено, що додаткові замовлення та резерви на 2027 рік можуть продовжувати накопичуватися протягом наступних 6–9 місяців.
Структура попиту стає більш різноманітною: приблизно 60% припадає на надмасштабних хмарних провайдерів (які внутрішньо переходять від рекомендаційних/пошукових навантажень до великих мовних моделей), решта 40% — на компанії, що використовують CUDA у хмарних AI-проєктах, партнерів NVIDIA у хмарі, суверенні AI та промислові/корпоративні клієнти.
Bank of America зазначає, що новий прогноз у 1 трильйон доларів відповідає попереднім очікуванням Уолл-стріт щодо доходів дата-центрів за три роки приблизно у 970 мільярдів доларів, підтверджуючи логіку, аналогічну до прогнозу у 450 мільярдів доларів, що базувався на попередній оцінці у 500 мільярдів у жовтні 2025 року.
Варто звернути увагу, що керівництво NVIDIA у цій конференції значну увагу приділило опису потреби прискорення обробки традиційних корпоративних навантажень.
Компанія оголосила про співпрацю з IBM (для прискорення WatsonX), Google Cloud (прискорення BigQuery, економія близько 76% на витратах Snap), Dell (платформи даних AI) та представила дві основні бібліотеки CUDA-X — cuDF і cuVS.
JPMorgan вважає, що цей напрямок «дуже недооцінений ринком» — оскільки закон Мура вже втратив свою динаміку, єдиним життєздатним альтернативним шляхом є спеціалізоване апаратне прискорення, що розширює цільовий ринок NVIDIA за межі циклів тренування/виведення AI.
Інтеграція Groq LPU: найважливіша новинка архітектурного рівня
JPMorgan оцінив інтеграцію Groq 3 LPU з Vera Rubin як «найважливішу новинку архітектурного рівня» на цій конференції GTC.
Ця роз’єднана архітектура для обробки inference поєднує GPU Rubin (висока пропускна здатність, 288 ГБ HBM4, 22 ТБ/с пропускна здатність, 50 PFLOPS NVFP4) з LPU від Groq (низька затримка, 500 МБ внутрішньої SRAM, 150 ТБ/с пропускна здатність SRAM, 1.2 PFLOPS FP8): попереднє заповнення виконується на Rubin, увага до декодування також працює на Rubin, тоді як фронтальні мережі/генерація Token — на Groq LPU.
LPX-стек інтегрує 256 LPU, забезпечує 128 ГБ сумарної SRAM, 40 ПБ/с пропускної здатності пам’яті та 315 PFLOPS обчислювальної потужності для inference, очікується вихід у третьому кварталі 2026 року.
Керівництво NVIDIA заявило, що для навантажень, що вимагають надвисокої швидкості обробки Token (генерація коду, інженерні обчислення, довгий контекст), близько 25% енергоспоживання дата-центрів буде спрямовано на LPX, решта 75% — на конфігурацію Vera Rubin NVL72.
Дані Bank of America показують, що «система Rubin у поєднанні з SRAM LPX може підвищити ефективність високорівневих низьколатентних навантажень у порівнянні з попереднім поколінням у 35 разів». JPMorgan додає, що ця архітектура безпосередньо відповідає на фундаментальну проблему — неможливість одночасно оптимізувати пропускну здатність (обмежену FLOPS) і затримку (обмежену пропускною здатністю), що дозволяє NVIDIA ефективно конкурувати на високорівневому ринку inference, традиційно домінованому ASIC-виробниками.
Паралельний розвиток кабелів та CPO: кілька шляхів без єдиного ризику
Керівництво NVIDIA прямо відповіло на суперечку між кабелями та CPO, підтвердивши одночасний розвиток обох напрямків.
У поколінні Vera Rubin, Oberon-стек використовує кабелі для розширення до NVL72, а оптичні рішення — до NVL576; масове виробництво комутаторів Spectrum-6 SPX з інтегрованою оптикою, розроблених NVIDIA у співпраці з TSMC, дозволяє підвищити енергоефективність у 5 разів порівняно з традиційними модульованими трансиверами, а надійність — у 10 разів.
Щодо Rubin Ultra (друга половина 2027 року), Kyber-стек використовує кабель NVLink для розширення (до 144 GPU), а також пропонує альтернативу — NVLink з CPO. Feynman (2028) буде підтримувати обидва варіанти одночасно та матиме Spectrum-7 (204T, CPO) для горизонтального масштабування.
Bank of America підкреслює, що використання CPO для розширення/горизонтального масштабування є опційним для клієнтів, які можуть продовжувати використовувати кабелі, доки самі не визначать час для переходу. JPMorgan погоджується і прогнозує, що до 2027 року кабельне розширення залишатиметься домінуючим у конфігураціях NVL72/NVL144, тоді як частка CPO поступово зростатиме у горизонтальному масштабуванні та конфігураціях NVL576+.
Vera CPU: новий мільярдний дохід для AI-агентів
Керівництво NVIDIA чітко заявило, що незалежний бізнес Vera CPU «уже визначений як мільярдний рівень доходу», і Bank of America зазначає, що ця стаття доходу ще не врахована у поточних очікуваннях ринку, що робить її додатковим внеском.
Vera CPU оснащений 88 власними ARM-ядрами Olympus, пам’яттю LPDDR5X із пропускною здатністю 1.2 ТБ/с (зменшеною вдвічі порівняно з традиційними серверними CPU), а також з’єднується з GPU через NVLink-C2C на швидкості 1.8 ТБ/с (у 7 разів швидше за PCIe Gen 6). Стек Vera CPU містить 256 рідинних охолоджуваних CPU, підтримує понад 22 500 одночасних процесорів.
Керівництво підкреслює, що CPU стає ключовим вузлом у розширенні AI-агентів — для навчання з підсиленим навчанням і робочих потоків агентів потрібне багато CPU для тестування та верифікації вихідних даних моделей GPU. Meta вже масштабно розгортає попереднє покоління Grace CPU, а Vera замінить його у 2027 році.
JPMorgan кваліфікує цей дохід як високоприбутковий, з можливістю повторного використання (разом із GPU-стеками у AI-заводах), і він тісно пов’язаний із кривою активізації AI-агентів, яку активно стимулює NVIDIA.
Дорожня карта продуктів до 2028 року, послідовне посилення архітектурного ритму
NVIDIA підтверджує щорічний графік випуску платформ: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).
Rubin Ultra матиме 4-міжгруповий GPU, 1 ТБ HBM4e, новий LPU-чип LP35 (з впровадженням NVFP4), а Kyber-стек підтримуватиме до 144 GPU на NVLink (7-ше покоління, 3.6 Тб/с на GPU, сумарна пропускна здатність NVL576 — 1.5 Пб/с).
Деталі Feynman перевищують очікування ринку:
Новий GPU виготовлятиметься за технологією TSMC A16 (1.6 нм), з використанням багатошарових чипів і кастомізованої HBM; новий CPU отримав назву Rosa (на честь Rosalind Franklin), спеціально розроблений для оркестрування навантажень із кількома GPU, LPU, пам’яттю та мережею; новий LPU — LP40, розроблений внутрішньою командою Groq; також включає BlueField-5 DPU, супермережеву карту ConnectX-10, NVLink 8 та Spectrum-7 (204T, CPO).
JPMorgan вважає, що вертикально інтегрована платформа NVIDIA (з уже сімома чипами, п’ятьма системами та програмним стеком) важко копіюється, а прискорення inference та традиційних навантажень сприяє структурному розширенню цільового ринку та постійному розширенню клієнтської бази, що підтримує більш тривалий і стійкий цикл капіталовкладень у AI, ніж очікує ринок.