Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Принаймні 1 трильйон доларів доходу! Промова Джен-Сіуна Хуана вибухнула на GTC, Nvidia повторно контролює долю AI (додаток: двадцятитисячні стенограми)
Стаття | «Спостереження Кремнієвої долини» Женьцзюнь
Центр SAP у Сан-Хосе, Кремнієва долина, майже повністю заповнений.
Це звичайний домашній майданчик хокейної команди NHL Сан-Хосе Шаркс, але сьогодні він перетворився на щорічну «Мекку AI». Девелопери, інженери, бізнес-клієнти та інвестори з 190 країн заповнили кожне місце, і всі погляди спрямовані на знайомий образ: середнього віку чоловіка у шкірянці.
Генеральний директор NVIDIA Хуанг Женьхун піднявся на сцену і сказав: «It all starts here.» — «Все починається тут». Протягом наступних двох з половиною годин він підтвердив вагу цих слів. Посміхаючись, він зазначив, що сьогодні тут все нагадує Супербоул.
Він прогнозує, що нове покоління AI-ускорювальних чипів NVIDIA Blackwell і наступний Rubin до кінця 2027 року принесуть щонайменше 1 трильйон доларів доходу. Ця цифра значно перевищує попередній прогноз у 500 мільярдів доларів, озвучений у жовтні 2025 року, і знову підкреслює швидке зростання інвестицій у AI-інфраструктуру.
Триліонні замовлення: переосмислення потреб
Найбільш безпосередній вплив у виступі — це цифри щодо замовлень. Хуанг Женьхун прогнозує, що до кінця наступного року загальні закупівлі NVIDIA за архітектурами Blackwell і Vera Rubin перевищать 1 трильйон доларів. Це у два рази більше, ніж минулорічні очікування у 500 мільярдів.
Раніше NVIDIA вже підвищила свої прогнози. Минулого місяця фінансовий директор Кресс натякнула у телефонній конференції, що продажі чипів зростуть понад попередні очікування, а сьогодні Хуанг Женьхун конкретизував цю впевненість у цифрах.
Це підтвердження базується на тому, що останні фінансові звіти NVIDIA показують: квартальний дохід дата-центрів склав 62,3 мільярда доларів, зростання — 75%. Однак ціна акцій NVIDIA не зросла відповідно, а навпаки — з моменту історичного максимуму у 207 доларів у жовтні минулого року вона скоротилася приблизно на 11%. Інвестори мають багато сумнівів щодо здатності NVIDIA підтримувати темпи зростання до 2027 року, а потенціал зростання безпосередньо визначає ціну акцій. Цифра у трильйон доларів — це прямий відповідь на ці «фантомні» побоювання.
Ключовий продукт: повний спектр Vera Rubin
Vera Rubin — головний герой цього виступу, але Хуанг Женьхун офіційно презентував його лише через півтори години. Ця система була розкрита ще наприкінці минулого року на заході у Вашингтоні, а на CES 2026 на початку цього року були показані деталі. Сьогодні ж відбулася повна офіційна презентація. Основні особливості:
Vera Rubin NVL72 — флагманська модель, що складається з 72 GPU, з’єднаних NVLink 6, охолодження — рідинне, підкреслює Хуанг Женьхун: «Все кабелі зникли» — використано модульні платформи, монтаж зменшено з двох годин до 5 хвилин. Система охолоджується гарячою водою при 45°C. Хуанг назвав її «двигуном епохи суперзарядженого AI».
Ultra Rubin — ще більш потужна, з 144 GPU у одному корпусі, з новим вертикальним кріпленням Kyber, де передня частина відповідає за обчислення, задня — за NVLink. У порівнянні з Hopper, платформа Vera Rubin теоретично може обробляти до 7 мільйонів токенів/сек, тоді як x86 Hopper — лише 2 мільйони. Хуанг назвав це «найважливішою діаграмою майбутнього AI-фабрики» і поділився, що рівень inference — це Free, High, Premium, Ultra — залежно від цінової категорії, і «Token — новий товар масового споживання».
CPU Vera Rubin буде продаватися окремо, створюючи незалежний дохід NVIDIA на ринку CPU. Очікується, що цей напрямок принесе «десятки мільярдів доларів» доходу. Перша система Vera Rubin вже працює у хмарі Microsoft Azure, і процеси тестування йдуть успішно — на відміну від початкових проблем із якістю у поколінні Blackwell.
Завершення з придбання Groq: інтеграція LPU
Напередодні Різдва минулого року NVIDIA завершила покупку ключових активів Groq за приблизно 20 мільярдів доларів, залучивши команду з засновником Джонатаном Россом. Сьогодні Хуанг оголосив про технічний продукт цієї покупки: Groq 3 LPU (Language Processing Unit).
Groq 3 — це прискорювач inference для Vera Rubin, а не заміна GPU. З технічної точки зору, великі мовні моделі inference мають два етапи: обчислювально інтенсивний prefill (обробка вхідних підказок) і пропускна здатність — decode (генерація вихідних токенів). GPU NVIDIA добре справляється з prefill, а LPU Groq з 22 ТБ/с HBM4 — з decode, у 7 разів швидше за GPU. Обидві системи працюють у архітектурі Disaggregated Inference: GPU відповідає за prefill, LPU — за decode, а верхній рівень — система Dynamo NVIDIA.
Для цього NVIDIA створила спеціальну раму LPX, що вміщує 256 Groq 3 LPU у один корпус, розташованих поруч із NVL72, через спеціальний Spectrum-X. Кожен Groq 3 LPU має 500 МБ пам’яті на кристалі, виготовлений Samsung, очікується у третьому кварталі. За даними, поєднання Vera Rubin NVL72 і Groq 3 LPX дає у 35 разів вищу продуктивність на мегават.
Перед релізом керівники NVIDIA заявили, що ця архітектура дозволить забезпечити «тисячі токенів за секунду» для великих мовних моделей — раніше цю нішу займали спеціалізовані компанії Cerebras і SambaNova.
Офіційна стратегія NVIDIA: створення епохи AI-агентів
Крім апаратного забезпечення, Хуанг багато говорив про софт. Основна ідея — сучасна хвиля AI-агентів (AI Agents) і популярна платформа OpenClaw. Він назвав OpenClaw найуспішнішим відкритим проектом.
Хуанг порівняв OpenClaw із операційною системою: «Він — операційна система для агентських комп’ютерів, як Windows для ПК». Навіть заявив, що «кожна компанія у світі потребує стратегії OpenClaw», порівнюючи з обов’язковим впровадженням Linux або HTTP/HTML у минулому.
NVIDIA випустила NemoClaw — відкритий корпоративний стек для OpenClaw. Його головна функція — безпека компанії: захист внутрішніх даних при розгортанні AI-агентів. У той же день Microsoft Security оголосила про співпрацю з NVIDIA для розробки реального часу захисту на базі Nemotron і NemoClaw.
Крім того, NVIDIA позиціонує DGX Spark і DGX Station як локальні платформи для розробки і розгортання AI-агентів, а NemoClaw — для edge.
Дорожня карта: від Фейнмана до космічного дата-центру
Щодо апаратної стратегії, Хуанг вперше окреслив архітектуру Feynman, заплановану на 2028 рік. Вона включатиме новий GPU, новий LPU — LP40 (на честь Розалінд Френкліна), новий CPU — Rosa (на честь Рози Франклін), а також BlueField-5 DPU, CX10 NIC і платформу Kyber з підтримкою кабельних і оптичних з’єднань.
Несподівано, він оголосив про розробку космічного Vera Rubin — Space-1, мета — розміщення AI-дата-центрів на орбіті. Визнано, що радіаційний захист — головне завдання, але розробки вже ведуться. Це співпадає з стратегіями SpaceX, Google, Amazon.
Також NVIDIA презентувала DSX AI Factory — референсний дизайн для великих дата-центрів, що поєднує Omniverse DSX Blueprint для планування, моделювання і управління життєвим циклом. AWS оголосила про розширення співпраці, планує розгорнути понад мільйон GPU NVIDIA (Blackwell, Rubin, Groq 3 LPU) у глобальній мережі вже цього року.
Автономні автомобілі і роботи: масштабне партнерство
Третя головна тема — автономний транспорт. Хуанг оголосив, що Drive AV NVIDIA і Uber вже на стадії реалізації: до 2028 року у 28 містах на чотирьох континентах буде розгорнуто автопарки з підтримкою NVIDIA, перші — у Лос-Анджелесі і Сан-Франциско, запуск — у 2027.
Також компанії BYD, Geely, Nissan і Hyundai розробляють L4-автомобілі на платформі Drive Hyperion. Isuzu і китайська Tier IV створюють автобуси з AI на базі NVIDIA AGX Thor. Хуанг цитує: «Час ChatGPT для автівок вже настав».
У сфері робототехніки Disney представила робота Olaf (з «Frozen»), з яким відбувся діалог. Він тренується у симуляторі NVIDIA, і демонструє застосування фізичного AI (Physical AI) у розвагах.
Можна сказати, що, за словами аналітика Patrick Moorhead, NVIDIA вже — не просто виробник чипів, а платформа.
Перший півторагодинний блок — про платформу, інфраструктуру. NVIDIA підкреслює, що вже не просто чипи, а екосистема. Стратегія — створення цілісної AI-екосистеми: від тренування і inference до безпеки і фізичного AI, автоматизації і космосу.
Більш конкретно, NVIDIA будує три рівні захисту: повний стек апаратного забезпечення (GPU+LPU+CPU+DPU+мережі), софт-екосистема (CUDA, NemoClaw, Dynamo, Omniverse), і галузеві рішення (авто, медицина, промисловість, розваги). Особливий акцент — на софт, що стає ключовою конкурентною перевагою, яку важко копіювати.
Масштабне партнерство у автопромі і інтеграція платформи OpenClaw — ознаки того, що джерела зростання NVIDIA розширюються від дата-центрів до ширших AI-застосувань. Хуанг малює картину майбутнього: AI перетвориться з текстового генератора у самостійні системи, здатні до inference, планування і виконання завдань, а базовий рівень — AI-даний центр із «Token-фабрикою» — стане основою цих систем. NVIDIA прагне стати повноцінним постачальником рішень для цієї фабрики.
Ринкова реакція і аналітики: підтвердження довіри, але з розбіжностями
Під час виступу акції NVIDIA закрилися з ростом приблизно на 1.65%, з 181 до 183 доларів, обсяг торгів — 217 мільйонів акцій, що вище за середній у 177 мільйонів. Ринкова капіталізація — 4.45 трильйона доларів. Це свідчить, що короткостроково GTC підняв довіру інвесторів.
Аналітик Wedbush Дан Айвес назвав цю подію «найбільш позитивною за останній час», він назвав Хуанга «AI-гуру» і вважає GTC «тим, що дає довіру інвесторам». Він повторює, що «революція AI прискорюється», і прогнозує, що попит на трильйонні обсяги — це не міф, а реальність, що йдуть з усіх секторів: бізнесу, уряду і стартапів. За його оцінкою, кожен долар витрат на чипи NVIDIA створює у 8-10 разів більше у downstream — у софті, безпеці, енергетиці і дата-центрах.
Аналітик Cantor Fitzgerald CJ Muse ще до виступу поставив цільову ціну у 300 доларів і залишив рекомендацію «купувати». Він вважає, що ця презентація зміцнить позицію NVIDIA як «повної системи AI-інфраструктури» і підвищить видимість попиту до 2027 року.
Партнер у Deepwater, Джин Мунстер, був більш обережним: він вважає, що справжні виклики — не сьогоднішній реліз, а довгострокові побоювання щодо уповільнення зростання у 2027-му, що пов’язано з питанням «чи не досягли ми піку капіталовкладень у AI».
За минулий рік, з урахуванням AI-буму і побоювань щодо інфраструктурних інвестицій, Хуанг дає всій галузі сильний імпульс, малюючи широку картину екосистеми AI. У цій майбутній екосистемі NVIDIA — ключовий гравець.
AI-бум? Чоловік у шкірянці вважає, що це лише початок.
【Повний текст виступу додається】