CEO Nvidia Дженсен Хуанг розповідає, що буде далі з бумом штучного інтелекту

Ще до того, як Дженсен Хуанг навіть увійшов у свій шкіряну куртку на цьому році GTC, Nvidia $NVDA -0.70% вже почала продавати міф. Передпоказовий саундтрек звучав підозріло так, ніби його спеціально створили для коронації — тексти про дивовижні речі, що приходять за графіком, створюються легенди, майбутнє з’являється точно вчасно; пісні, які навіть Shazam не міг ідентифікувати. (Перший демонстраційний AI-демо дня цілком міг бути цим плейлистом.) Половина залу тримала телефони підняті для входу Хуанга, ніби Кремнієва долина замовила свій власний арена-актер. На один день домашній майданчик San Jose Sharks належав іншому виду гри сили. Адже Хуанг вийшов на сцену і зробив те, що він робить найкраще: перетворив презентацію продукту на слухання щодо майбутнього.

Засновник Nvidia відкрив GTC, обіцяючи екскурсію по «кожному шару» AI, а потім провів кілька годин, доводячи, що компанія не просто продає чіпи у гарячому ринку. Ні. Компанія прагне визначити всю фізичну інфраструктуру AI-економіки: обчислювальні ресурси, мережі, зберігання, програмне забезпечення, моделі, фабрики і — оскільки делікатність явно вийшла з моди — можливо навіть (ще теоретичні) дата-центри у космосі.

Основна промова була наповнена анонсами у всі напрямки, але справжнє послання було більш зосередженим. Хуанг хотів, щоб інвестори, клієнти та конкуренти чітко почули чотири речі: попит на AI все ще швидко зростає, випереджаючи витрати; інференція тепер у центрі битви; агенти мають виходити з чатботів і проникати у щоденну роботу офісів; і наступний золотий рудник після цифрового AI може бути фізичним AI, де роботи, автономні системи та промислове програмне забезпечення спалюють ще більше даних і інфраструктури. Не можна писати Nvidia без AI.

Хуанг почав там, де зазвичай починає, коли ринок починає задумуватися, чи не прорветься коли-небудь оборона Nvidia: з програмного забезпечення. Він на початку нагадував всім, що CUDA вже 20 років, що встановлена база Nvidia «у кожному хмарі» та «у кожній комп’ютерній компанії». Найміцніший щит Nvidia — це все ще екосистема програмного забезпечення навколо кремнію, а не зелені прямокутники самі по собі.

Ця логіка сформувала решту виступу. Хуанг зупинився на структурованих даних, назвав їх «основною правдою» корпоративних обчислень і сказав, що AI нарешті може використовувати океан неструктурованої інформації — PDF-файли, відео, мову, весь корпоративний архівний мотлох, який компанії зберігали роками, не знаючи, як його шукати або монетизувати. Обережно, світ; Nvidia хоче мати свою частку у базі даних теж.

GTC більше не про швидший, кращий чіп. Цього року головна промова була про спробу Nvidia стати компанією, яка володіє економікою самої роботи AI — чіпами, зберіганням, мережею, оркестровкою, цифровим двійником, політикою відкритих моделей, середовищем агентів і всім, що з’явиться після дата-центру, коли Земля почне відчувати перенаселеність. GTC 2026 був ключовою промовою про інференцію, агентів і AI-завод, де апаратне забезпечення — це доказ, а не сюжет.

Ну, це велике число

Найбільший трюк Хуанга — числовий. Він відзначив 20-річчя CUDA, назвав її рушієм прискорених обчислень, сказав, що попит на обчислювальні ресурси зріс «у мільйон разів за останні кілька років», і підвищив ставки, заявивши, що з 2025 по 2027 рік він бачить щонайменше 1 трильйон доларів доходу, порівняно з попередньою оцінкою у 500 мільярдів доларів, яку він раніше прив’язував до Blackwell і Rubin до 2026 року. Акції Nvidia закрилися з підвищенням на 1,6% у понеділок, що читається як схвалення без повної конверсії.

Це число — і рамки Хуанга — цілком могли стати організаційним принципом промови. Nvidia хотіла, щоб інвестори і клієнти почули публічно і голосно, що розгортання ще на початку, що воно ще шириться і ще досить велике, щоб поточні витрати виглядали як передоплата. Це число також зробило кілька тихих робіт з очищення. Nvidia місяцями відповідала на звичайні питання, що виникають, коли компанія стає головним касиром у бумі капітальних витрат: скільки це триватиме? Що станеться, коли гіперскейлери знайдуть релігію щодо витрат? Скільки з наступної фази витече у кастомні чіпи і дешевші альтернативи?

Відповідь Хуанга — розширити перспективу, зробити ринок більшим і навантаження складнішою. Він сказав, що «інференційний перелом настав», і побудував середину промови навколо простого аргументу: AI тепер може виконувати продуктивну роботу. І коли це станеться, картина попиту змінюється. Навчання великих моделей і їх захоплення ніколи не були кінцевою стадією. Все це переходить у виробництво, де лічильник ніколи не зупиняється.

Це — це! — ваш дохід, він казав, перетворюючи дата-центр на міні-майстерню, а рахунок за електроенергію — на долю. Nvidia активно пропагувала реальність настільки покращену, що її можна майже виставити на рахунок, а зал все ще був наповнений людьми, які намагалися зрозуміти, чи демонстрація була трансцендентною, чи просто трохи дорожчою.

Токени були всюди у промові — у вступному відео, у графіках продуктивності, у економічних аргументах. Основна ідея полягає в тому, що майбутня цінність AI полягає у безперервному створенні корисного вихідного результату, що означає, що інференція стає частиною стеку, де вартість, затримка і пропускна здатність починають дійсно і справді мати значення. Хуанг пропонує залежність. Він хоче, щоб клієнти думали у гігаватних кампусах, інтегрованих стелажах, мегаватних бюджетах і кривих пропускної здатності токенів, а не у серверах, які можна змішувати і підбирати на свій розсуд.

Інференція виходить на передній план

Можливо, найгостріша фраза у промові була і найпростіша: «Інференційний перелом настав». Nvidia знає, що світ зацікавився у дешевшому, більш ефективному обладнанні для інференції. Добре. Вона хоче продавати і його.

Хуанг розділив інференцію на два етапи — попереднє заповнення і декодування — і запропонував систему, у якій чіпи Vera Rubin Nvidia обробляють попередню роботу, а кремнієві рішення Groq — декодування, яке фактично видає відповідь. Це важливо; інференція — це там, де наступна глава Nvidia стане більш заплутаною. Навчання зробило компанію багатою. Обслуговування сотень мільйонів користувачів у реальному часі — це там, де клієнти починають ставити питання про вартість, затримки і чи справді їм потрібно одне й те саме кремнієве рішення для кожного кроку.

Відповідь Хуанга була класичною для Nvidia. Не захищайте GPU ізольовано; поглинайте весь стек. Він описав Vera Rubin як «поколінський прорив», побудований на семи чіпах і п’яти системах на стелажі, Nvidia стверджує, що платформа може тренувати великі моделі з міксом експертів із однією четвертою кількості GPU порівняно з Blackwell і забезпечує у 10 разів вищу пропускну здатність інференції на ват при одній десятій ціні за токен. Також він використав промову, щоб дивитись у майбутнє платформи Feynman, бо у Nvidia-землі наступне покоління стоїть у крилі ще до того, як поточне закінчує вихвалятися.

Хуанг не пропонує швидший компонент, а більш залежний. Nvidia оголосила референсний дизайн AI-заводів Vera Rubin DSX, інструменти моделювання DSX для планування AI-заводів перед їхнім створенням і ширший набір компонентів зберігання, мережі та систем, що мають працювати як єдине вертикально інтегроване рішення. Послання було чітким: перестаньте думати про сервери, думайте про кампуси. Або, якщо ви Nvidia, починайте виставляти рахунки, як комунальна служба.

Агенти залишають сцену демонстрацій

Якщо апаратна частина була про те, щоб тримати Nvidia у центрі інференції, то програмна — про те, щоб переконатися, що корпоративний AI не стане чужою вечіркою. Хуанг сказав, що «100% Nvidia» тепер використовує Claude Code, Codex і Cursor; люди вже не питають AI хто, що, коли, де і як. Вони просять його створювати. Робити. Вибачте, компанії чатботів — AI тепер сприймається менше як розмовна новинка і більше як система праці.

Хуанг цілий день намагався зробити так, щоб ця система праці проходила через стек Nvidia. Компанія випустила OpenClaw і NemoClaw для спільноти OpenClaw — у партнерстві з дуже модною компанією — просунула свій Agent Toolkit і OpenShell runtime, і зробила ставку на AI-Q, що має маршрутизувати запити і зменшити витрати більш ніж на 50% через гібридне поєднання фронтір і відкритих моделей Nvidia.

Усе це приховано у стратегічному хеджі.

Nvidia представила Nemotron Coalition з Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam і Thinking Machines Lab, причому перший проект має підтримати майбутню модельну сім’ю Nemotron 4. Зчитуючи між рядків, цілком очевидно, що Nvidia не хоче, щоб майбутнє AI-програмного забезпечення розподілялося між кількома гігантськими закритими постачальниками моделей і купою товарного обладнання. Вона хоче мати свою роль у відкритому шарі моделей — частині, що формує, хто може створювати, налаштовувати і володіти AI поза межами найбільших лабораторій.

Імперська промова стає більшою

А потім, оскільки Хуанг ніколи не зустрічав метафору, яку не міг масштабувати, промова вийшла за межі дата-центру і проникла майже у всі суміжні галузі, які могла знайти.

Хуанг вже деякий час розширює історію Nvidia за межі цифрових асистентів, і цього року GTC ще сильніше підштовхнув цю тему. Nvidia оголосила про Physical AI Data Factory Blueprint разом із Microsoft $MSFT -0.14% Azure і Nebius, що має автоматизувати процес генерації, доповнення та оцінки тренувальних даних для робототехніки, систем зору AI-агентів і автономних транспортних засобів. Посилання просте: реальні дані рідкісні, крайні випадки — неприємні, а синтетичні дані та симуляція можуть перетворити обчислення у сировину, необхідну цим системам.

Хуанг також попередньо показав GR00T N2, модель базової платформи для роботів нового покоління, засновану на дослідженнях DreamZero, яка, за словами компанії, більш ніж удвічі перевищує успіхи передових моделей VLA у нових завданнях і нових середовищах. Чатботи зацікавили Уолл-стріт. Фізичний AI — це частина, яка може тримати інфраструктурний бум ще роками, оскільки роботам, промисловим системам і автономним машинам потрібні не лише моделі — їм потрібні нескінченні тренувальні дані, симуляція, мережі, сенсори і крайові обчислення.

Хуанг навіть привів Олафа з Disney $DIS +1.66%, — невеликий елемент фізичного-AI-театру, що зробив ширший меседж більш ясним, ніж будь-який інший слайд архітектури. Nvidia каже, що Disney тренує Олафа і своїх дронів BDX +0.85% за допомогою фізичного симулятора на базі Nvidia Warp і інтегрованого у Newton, і Олаф дебютує у Disneyland Paris 29 березня.

Nvidia також нагадала про автономні автомобілі. Компанія заявила, що BYD, Geely, Isuzu і Nissan створюють автомобілі рівня 4 на базі DRIVE Hyperion, а Uber $UBER +4.19% планує запустити роботаксі з підтримкою Nvidia у Лос-Анджелесі і Сан-Франциско у першій половині 2027 року, а до 2028 року — у 28 містах. Автономність майже ідеально вписується у широку картину Хуанга: наступна фаза AI пройде через фізичний світ, що означає більше сенсорів, симуляцій, мереж, крайових обчислень і, зручності для Nvidia, дорожчого обладнання скрізь.

Хуанг навіть зробив крок далі і сказав, що Nvidia йде у космос, з майбутніми системами на базі Vera Rubin, орієнтованими на орбітальні дата-центри і космічні автономні операції. Так, це звучить як людина, яка виявила, що ще залишилися незайняті сектори. Але це також звучить як компанія, яка прагне зробити «інфраструктуру AI» майже кожною дорогою машиною на виду. Nvidia все ще — король чіпів, звичайно. Але Хуанг вже не особливо зацікавлений у цій титулі сам по собі. Його компанія намагається перейти від постачальника чіпів до архітектора фабрик, постачальника операційних систем і збирача платіжок у світі, де AI виконує більшу частину роботи, а дата-центри з обмеженою потужністю перетворюються на джерела доходу, вимірювані токенами за ват.

Коли Хуанг закінчив, промова здавалася більшою за календар запусків. Вона нагадувала карту імперії. Так, там були DLSS 5 для графіки, нові промислові програмні рішення, партнерства у телекомі та лавина інструментів для розробників. Але головний висновок був простим і набагато більшим: Nvidia хоче, щоб AI перестало розумітися лише як категорія програмного забезпечення і почало сприйматися як інфраструктурний проект масштабного рівня, з апаратним і програмним забезпеченням Nvidia, вбудованим у кожен шар.

Це дуже повідомлення Дженсена Хуанга. Неспокійна частина для конкурентів полягає в тому, що, принаймні наразі, у нього ще багато клієнтів, готових будувати навколо цього.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити