Генеральный директор Nvidia Дженсен Хуанг о том, что дальше в буме искусственного интеллекта

Прежде чем Дженсен Хуанг даже добрался до входа в кожаной куртке на этом году GTC, Nvidia $NVDA -0.70% уже начала распространять миф. Предварительный саундтрек звучал подозрительно специально созданным для коронации — слова о том, как удивительные вещи прибывают по расписанию, создаются легенды, будущее появляется точно в срок; песни, которые даже Shazam не смог бы определить. (Первым AI-демо дня, возможно, был именно этот плейлист.) Половина зала держала телефоны поднятыми для входа Хуанга, словно Кремниевая долина заказала собственное шоу в арене. В один день домашний лед Сан-Хосе Шаркс стал ареной другого рода мощной игры. Потому что Хуанг вышел на сцену и сделал то, что умеет лучше всего: превратил презентацию продукта в слушание по зонированию будущего.

Основатель Nvidia начал GTC с обещания пройтись по «каждому слою» AI, а затем провел несколько часов, доказывая, что компания не просто продает чипы в горячий рынок. Нет. Компания хочет определить всю физическую инфраструктуру экономики AI: вычисления, сети, хранилища, программное обеспечение, модели, фабрики и — поскольку тонкость явно вышла из моды — возможно, даже (еще теоретические) дата-центры в космосе.

Основная речь была насыщена анонсами со всех сторон, но главное сообщение было более сжатым. Хуанг хотел, чтобы инвесторы, клиенты и конкуренты четко услышали четыре вещи: спрос на AI все еще растет достаточно быстро, чтобы оправдать огромные расходы; выводы — теперь центр боевых действий; агенты должны выходить из чатботов и внедряться в повседневную работу офиса; и после цифрового AI может последовать физический AI, где роботы, автономные системы и промышленное ПО будут обрабатывать еще больше данных и инфраструктуры. Нельзя написать Nvidia без AI.

Хуанг начал там, где обычно начинает, когда рынок задумывается, не прорвется ли когда-нибудь оборона Nvidia: с программного обеспечения. Он напомнил, что CUDA — 20 лет, что установленная база Nvidia «в каждом облаке» и «в каждой компьютерной компании». Самый сильный щит Nvidia — это все еще экосистема программного обеспечения вокруг кремния, а не зеленые прямоугольники сами по себе.

Эта логика определила остальную часть речи. Хуанг задержался на структурированных данных, назвал их «истиной земли» корпоративных вычислений и заявил, что AI наконец-то может использовать океан неструктурированной информации — PDF, видео, речь, все корпоративное хранилище, которое компании копили годами, не зная, как искать или монетизировать. Осторожно, мир; Nvidia тоже хочет заявить права на базу данных.

GTC больше не только о быстром и лучшем чипе. Главная речь этого года — попытка Nvidia стать компанией, которая владеет экономикой самой работы AI — чипами, хранилищами, сетями, оркестровкой, цифровым двойником, политикой открытых моделей, средой выполнения агентов и всем, что появится после дата-центров, когда Земля начнет казаться переполненной. GTC 2026 — это ключевая речь о выводах, агентах и фабриках AI, где аппаратное обеспечение служит доказательством, а не сюжетом.

Ну, это большое число

Самое яркое достижение Хуанга — числовое. Он отметил 20-летие CUDA, назвал его движущей силой ускоренных вычислений, заявил, что спрос на вычисления вырос «в 1 миллион раз за последние несколько лет» и поднял ставки, заявив, что с 2025 по 2027 год он видит как минимум 1 триллион долларов дохода, по сравнению с ранее озвученной цифрой в 500 миллиардов долларов, связанной с Blackwell и Rubin до 2026 года. Акции Nvidia закрылись с ростом на 1,6% в понедельник, что похоже на одобрение без полного подтверждения.

Это число — и рамки Хуанга — вполне могли стать организационной основой всей презентации. Nvidia хотела, чтобы инвесторы и клиенты услышали вслух и громко, что развитие еще только началось, расширяется и достаточно велико, чтобы текущие расходы казались лишь авансом. Это число также тихо очистило некоторые вопросы. Nvidia месяцами отвечала на стандартные вопросы, которые возникают, когда компания становится главным кассиром в буме капиталовложений: как долго это продлится? Что произойдет, если гиперскейлеры начнут экономить? Насколько следующая фаза утекает в кастомные чипы и более дешевые альтернативы?

Ответ Хуанга — расширить взгляд, сделать рынок больше и работу сложнее. Он заявил, что «инфлекция выводов наступила», и построил середину презентации вокруг простого аргумента: AI теперь способен выполнять продуктивную работу. И как только это произойдет, картина спроса изменится. Обучение крупным моделям и их восхищение ими никогда не было финальной стадией. Все это переходит в производство, где счетчик никогда не останавливается.

Это — ваше доходное производство, говорил он, превращая дата-центр в монету, а счет за электроэнергию — в судьбу. Nvidia активно продвигала реальность настолько улучшенную, что ее можно было практически выставить счет, а зал все еще был полон людей, пытающихся понять, выглядит ли демонстрация трансцендентной или просто чуть дороже.

Токены были повсюду — в начальном видео, в графиках производительности, в экономическом аргументе. В основном идея в том, что будущая ценность AI заключается в постоянной генерации полезного результата, что делает выводы частью стека, где стоимость, задержка и пропускная способность начинают действительно и по-настоящему иметь значение. Хуанг пропагандирует зависимость. Он хочет, чтобы клиенты думали о гигавааттных кампусах, интегрированных стойках, мегаваттных бюджетах и кривых пропускной способности токенов, а не о серверах, которые можно смешивать и сочетать по желанию.

Выводы занимают центральное место

Одна из самых острых фраз презентации — и самая простая: «Инфлекция выводов наступила». Nvidia знает, что мир заинтересовался более дешевым, более компактным оборудованием для вывода. Хорошо. Она хочет продавать его тоже.

Хуанг разделил выводы на два этапа — предварительную подготовку и декодирование — и предложил систему, в которой чипы Vera Rubin от Nvidia занимаются подготовкой, а декодирование выполняется на основе кремния Groq, что действительно дает ответ. Это важно; выводы — это то, где следующая глава Nvidia станет более запутанной. Обучение крупным моделям сделало компанию богатой. Обслуживание сотен миллионов пользователей в реальном времени — это то, где клиенты начинают задавать вопросы о стоимости, задержках и необходимости одинакового кремния для каждого этапа.

Ответ Хуанга был классическим для Nvidia. Не защищайте GPU в изоляции; охватывайте весь стек. Он описал Vera Rubin как «переход на новый уровень», основанный на семи чипах и пяти системах в стойке, при этом Nvidia утверждает, что платформа может обучать крупные модели с миксом экспертов, используя в четыре раза меньше GPU по сравнению с Blackwell, и обеспечивать в 10 раз более высокую пропускную способность на ватт при в десять раз меньшей стоимости за токен. Он также использовал презентацию, чтобы взглянуть дальше Rubin к будущей платформе Feynman, потому что в Nvidia следующая генерация уже стоит в очереди, пока текущая еще кланяется.

Хуанг не предлагает просто более быстрый компонент, а большую зависимость. Nvidia анонсировала референс-дизайн AI-фабрики Vera Rubin DSX, инструменты моделирования DSX для планирования AI-фабрик до их создания и более широкий ассортимент компонентов хранения, сетей и систем, предназначенных работать как единая вертикально интегрированная машина. Посыл был очевиден: перестаньте думать о серверах, думайте о кампусах. Или, если вы Nvidia, начинайте выставлять счета как коммунальная служба.

Агенты покидают сцену демонстраций

Если аппаратное предложение было о том, чтобы держать Nvidia в центре вывода, то программное — о том, чтобы убедиться, что корпоративный AI не станет чужой вечеринкой. Хуанг заявил, что «100% Nvidia» теперь используют Claude Code, Codex и Cursor; люди больше не спрашивают AI кто, что, когда, где и как. Они требуют создания. Делать. Простите, компании чатботов — AI теперь воспринимается меньше как разговорная новинка и больше как система труда.

Хуанг целый день старался обеспечить, чтобы эта система труда проходила через стек Nvidia. Компания выпустила OpenClaw и NemoClaw для сообщества OpenClaw — в партнерстве с очень модной компанией — продвигала свой Agent Toolkit и OpenShell runtime, а также делала ставку на AI-Q, который предназначен для маршрутизации запросов и сокращения затрат более чем на 50% за счет гибридного сочетания передовых и открытых моделей Nvidia.

Внутри всей этой открытости скрыт стратегический хедж.

Nvidia представила Nemotron Coalition с Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam и Thinking Machines Lab, причем первый проект должен стать основой будущей модели Nemotron 4. Читая между строк, ясно, что Nvidia не хочет, чтобы будущее программного обеспечения AI делилось четко между несколькими крупными поставщиками закрытых моделей и кучей товарного оборудования. Она хочет участвовать в слое открытых моделей — части, которая формирует, кто сможет строить, настраивать и владеть AI за пределами крупнейших лабораторий.

Имперская стратегия расширяется

И затем, потому что Хуанг никогда не встречал метафору, которую не смог бы масштабировать, презентация вышла за пределы дата-центра и затронула почти все смежные отрасли, которые могла найти.

Хуанг уже некоторое время расширяет историю Nvidia за пределы цифровых помощников, а GTC этого года еще сильнее продвинул эту тему. Nvidia анонсировала проект Physical AI Data Factory Blueprint совместно с Microsoft $MSFT -0.14% Azure и Nebius, который предназначен автоматизировать создание, дополнение и оценку данных для робототехники, систем компьютерного зрения и автономных транспортных средств. Посыл прост: реальные данные редки, крайние случаи раздражают, а синтетические данные и симуляции могут превратить вычисления в сырье, необходимое этим системам.

Хуанг также показал GR00T N2, модель следующего поколения для роботов, основанную на исследованиях DreamZero, которая, по словам компании, более чем вдвое увеличивает успех по сравнению с ведущими моделями VLA в новых задачах и новых условиях. Чатботы вызвали интерес у Уолл-стрит. Физический AI — это часть, которая может поддерживать инфраструктурный бум еще годы, потому что роботы, промышленные системы и автономные машины требуют не только моделей — им нужны бесконечные обучающие данные, симуляции, сети, датчики и периферийные вычисления.

Хуанг даже пригласил на сцену Олафа из Disney $DIS +1.66%, — небольшую сценку физического AI, которая яснее, чем любой другой слайд архитектуры, передала основную идею. Nvidia говорит, что Disney обучает Олафа и своих роботов BDX +0.85% с помощью физического симулятора на базе Nvidia Warp и интегрированного в Newton, а Олаф дебютирует в Париже 29 марта.

Nvidia также напомнила о своих планах по автономным транспортным средствам. Компания заявила, что BYD, Geely, Isuzu и Nissan создают автомобили уровня 4 на базе платформы DRIVE Hyperion, а Uber $UBER +4.19% планирует запустить робо-такси на базе Nvidia в Лос-Анджелесе и Сан-Франциско в первой половине 2027 года, а к 2028 году — в 28 городах. Автономность почти слишком идеально вписывается в более широкую картину Хуанга: следующая фаза AI пройдет через физический мир, что означает больше датчиков, симуляций, сетей, периферийных вычислений и, удобно для Nvidia, более дорогого оборудования повсюду.

Хуанг даже пошел дальше и заявил, что Nvidia отправится в космос, с будущими системами на базе Vera Rubin, предназначенными для орбитальных дата-центров и автономных космических операций. Да, это звучит как человек, который обнаружил, что есть еще несколько незатронутых секторов. Но это также звучит как компания, решившая сделать «инфраструктуру AI» почти для каждого дорогого устройства. Nvidia по-прежнему — король чипов, конечно. Но Хуанг уже не особенно заинтересован только в этом титуле. Его компания пытается перейти от поставщика чипов к архитектору фабрик, поставщику операционных систем и сборщику платных дорог в мире, где AI выполняет большую часть работы, а дата-центры с ограниченной мощностью превращаются в источники дохода, измеряемые токенами за ватт.

К концу Хуанг создал ощущение, что презентация больше, чем просто календарь запусков. Она напоминала карту империи. Да, там были DLSS 5 для графики, новые промышленные программные решения, партнерства в телекоммуникациях и лавина разработческих инструментов. Но главное — это очень простое и очень масштабное послание: Nvidia хочет, чтобы AI перестал восприниматься только как программная категория и начал рассматриваться как инфраструктурный проект масштаба utilities, где аппаратное и программное обеспечение Nvidia встроены на каждом уровне.

Это очень послание Дженсена Хуанга. Неудобная часть для конкурентов — пока у него еще есть множество клиентов, готовых строить вокруг этого.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить