Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Уолл-Стрит про GTC: За визначенням Nvidia, обчислювальна потужність — це дохід, Token — це новий масовий товар
Питання AI · Значне зниження вартості токенів: як це сприяє розширенню попиту на AI?
Генеральна конференція GTC від NVIDIA в цьому році послала ключовий сигнал: бізнес-логіка обчислювальної потужності AI зазнає фундаментальної перебудови — токени стали новим товаром масового споживання, а обчислювальна потужність — доходом.
Керівництво NVIDIA на цій GTC значно підвищило прогноз продажів дата-центрів з попередніх 500 мільярдів доларів (до 2026 року) до понад 1 трильйона доларів (з 2025 по 2027 роки), а також чітко заявило, що продажі незалежних процесорів Vera CPU та рішень на базі LPX будуть додатково враховуватися. У фінансових колах цю конференцію вважають сильним підтвердженням тривалого циклу AI у NVIDIA.
За даними Chase Trade Desk, останній звіт JPMorgan вказує, що ця цифра означає, що у порівнянні з поточними очікуваннями щодо доходів дата-центрів у 2026–2027 роках, існує щонайменше 50–70 мільярдів доларів потенційного зростання.
Банк Америки прямо цитує заяву керівництва NVIDIA — «Токен — це новий товар масового споживання, обчислювальна потужність дорівнює доходу» — і зазначає, що система Blackwell вже зменшила вартість кожного токена до 35 разів у порівнянні з попереднім поколінням Hopper, а серія Rubin, яка скоро з’явиться, має потенціал знизити цю вартість ще в 2–35 разів, залежно від типу навантаження та архітектурних налаштувань.
У рамках наративу NVIDIA ця безперервна тенденція зменшення вартості токенів є основним рушієм масштабного зростання попиту.
Збільшення видимості попиту вдвічі, двонапрямний драйвер — великі клієнти та корпоративний ринок
Керівництво NVIDIA повідомило, що високовірогідні замовлення на системи Blackwell та Vera Rubin вже перевищили 1 трильйон доларів, що вдвічі більше за оголошені у жовтні 2025 року на GTC дані про 500 мільярдів доларів. Також було зазначено, що додаткові замовлення та резерви на 2027 рік можуть накопичуватися протягом наступних 6–9 місяців.
Структура попиту стає більш різноманітною: близько 60% припадає на надмасові хмарні провайдери (внутрішнє споживання AI переходить від рекомендацій/пошуку до великих мовних моделей), решта — на CUDA-хмарні AI-компанії, партнерів NVIDIA у хмарі, суверенні AI та промислові/корпоративні клієнти.
Банк Америки зазначає, що новий прогноз у 1 трильйон доларів відповідає попереднім очікуванням щодо доходів дата-центрів за три роки у приблизно 970 мільярдів доларів, підтверджуючи логіку, схожу з оцінкою у 450 мільярдів доларів у жовтні 2025 року, базуючись на попередньому прогнозі у 500 мільярдів.
Варто звернути увагу, що керівництво NVIDIA у цій конференції детально розглянуло питання прискорення обробки традиційних корпоративних навантажень.
Компанія оголосила про співпрацю з IBM (прискорення WatsonX), Google Cloud (прискорення BigQuery, економія близько 76% на витратах), Dell (платформа даних AI) та представила дві основні бібліотеки CUDA-X — cuDF та cuVS.
JPMorgan вважає, що цей напрямок «дуже недооцінений ринком» — логіка полягає в тому, що закон Мура втрачає свою силу, і спеціалізоване прискорення у галузі є єдиним життєздатним шляхом, що розширює цільовий ринок NVIDIA за межі циклу тренування/виведення AI.
Інтеграція Groq LPU: найважливіша новинка архітектурного рівня
JPMorgan оцінив інтеграцію Groq 3 LPU з Vera Rubin як «найважливішу новинку архітектурного рівня» на цій GTC.
Ця роз’єднана архітектура дозволяє поєднати GPU Rubin (висока пропускна здатність, 288 ГБ HBM4, 22 ТБ/с пропускна здатність, 50 PFLOPS NVFP4) з LPU від Groq (низька затримка декодування, 500 МБ внутрішньої SRAM, 150 ТБ/с пропускна здатність SRAM, 1.2 PFLOPS FP8): попереднє заповнення виконується на Rubin, увага до декодування також — на Rubin, а фронтальні мережі/генерація токенів — на Groq LPU.
LPX-стек, інтегрований з 256 LPU, забезпечує 128 ГБ сумарної SRAM, 40 ПБ/с пропускної здатності пам’яті та 315 PFLOPS для виведення — очікується до третього кварталу 2026 року.
Керівництво NVIDIA заявило, що для навантажень з високою швидкістю обробки токенів (генерація коду, інженерні обчислення, довгий контекст виведення) близько 25% енергоспоживання дата-центрів буде спрямовано на LPX, решта — на чистий Vera Rubin NVL72.
Дані Bank of America показують, що «система Rubin у поєднанні з SRAM LPX може підвищити ефективність високорівневих низьколатентних навантажень у 35 разів». JPMorgan зазначає, що ця архітектура безпосередньо відповідає на фундаментальну проблему — неможливість одночасно оптимізувати пропускну здатність (обмежену FLOPS) і затримку (обмежену пропускною здатністю), що дозволяє NVIDIA ефективно конкурувати на високорівневому ринку виведення AI, де раніше домінували ASIC.
Паралельний розвиток кабелів та CPO, без єдиного ставлення
Керівництво NVIDIA у відкритій формі відповіло на суперечку між кабельними рішеннями та оптичним модулем CPO, підтвердивши одночасний розвиток обох напрямків.
У поколінні Vera Rubin використовується кабельне розширення до NVL72 (Oberon), а оптичне — до NVL576; комерційно вже запущено Spectrum-6 SPX — багатоканальний оптичний Ethernet-комутатор, розроблений NVIDIA у співпраці з TSMC, — заявили, що його енергоспоживання та ефективність у порівнянні з традиційними модульними трансмітерами зросли у 5 разів, а надійність — у 10 разів.
Щодо Rubin Ultra (друга половина 2027 року), Kyber-стек використовуватиме кабельний NVLink (до 144 GPU), а також альтернативно — CPO-обмін через NVLink. Feynman (2028) підтримуватиме одночасно кабельне та CPO розширення, а Spectrum-7 (204T, CPO) забезпечить горизонтальне масштабування.
Bank of America підкреслює, що використання CPO для розширення/горизонтального масштабування є опційним для клієнтів, і вони можуть продовжувати використовувати кабельні рішення до зручного для них моменту. JPMorgan погоджується, що ці два шляхи підтверджують його попередні прогнози: кабельне розширення залишиться домінуючим у конфігураціях NVL72/NVL144 щонайменше до 2027 року, а CPO поступово займе свою частку у горизонтальному масштабуванні та конфігураціях NVL576+.
Vera CPU: новий мільярдний дохід для AI-агентів
Керівництво NVIDIA чітко заявило, що незалежний бізнес Vera CPU «уже визначений як багатомільярдний», і Bank of America зазначає, що цей дохідний потік ще не врахований у поточних очікуваннях ринку, є додатковим джерелом прибутку.
Vera CPU оснащена 88 власними ARM-ядрами Olympus, пам’яттю LPDDR5X з пропускною здатністю 1.2 ТБ/с (споживання — у два рази менше, ніж у традиційних серверних CPU), а через NVLink-C2C з’єднується з GPU на швидкості 1.8 ТБ/с (у 7 разів швидше за PCIe Gen 6). Стек Vera CPU з 256 рідинних охолоджуваних CPU підтримує понад 22 500 одночасних процесорних середовищ.
Керівництво підкреслює, що CPU стає вузьким місцем для розширення AI-агентів — навчання з підсиленням та робочі процеси агентів потребують великої кількості CPU для тестування та перевірки вихідних даних GPU. Meta вже розгортає попереднє покоління Grace CPU, а Vera стане наступним у 2027 році.
JPMorgan оцінює цей дохідний потік як високоприбутковий, з високою повторюваністю (разом із GPU-стеками для AI фабрик), і він структурно пов’язаний із кривою активізації AI-агентів, яку активно стимулює NVIDIA.
Програма розвитку до 2028 року, послідовність архітектурних релізів
NVIDIA підтвердила річний ритм випуску платформ: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).
Rubin Ultra матиме конфігурацію з 4 GPU, 1 ТБ HBM4e, новий чіп LPU LP35 (з впровадженням обчислень на базі NVFP4), а Kyber-стек підтримуватиме до 144 GPU через NVLink (7-ге покоління NVLink, 3.6 Тб/с на GPU, сумарна пропускна здатність NVL576 — 1.5 Пб/с).
Деталі Feynman перевищують очікування ринку:
Новий GPU буде виготовлений за технологією TSMC A16 (1.6 нм), з підтримкою багатошарових чипів та кастомізованої HBM; новий CPU отримав назву Rosa (на честь Розалінд Франклін), спеціально розроблений для оркестрування AI-навантяжень між GPU, LPU, пам’яттю та мережею; новий LPU — LP40, розроблений внутрішньою командою Groq; також включає BlueField-5 DPU, супермережеву карту ConnectX-10, NVLink 8 та Spectrum-7 (204T, CPO).
JPMorgan вважає, що вертикально інтегрована платформа NVIDIA (з уже сімома чипами, п’ятьма системами та програмним стеком) важко копіювати, а прискорення виведення та традиційне прискорення робочих навантажень створюють структурне розширення цільового ринку та бази клієнтів, що підтримує більш тривалий і стійкий цикл капіталовкладень у AI, ніж очікує ринок.