NVIDIA GTC: весенний бал в мире ИИ, полное ожидание и разочарование?

16 марта 2026 года основатель и CEO NVIDIA 黄仁勋 выступил с ключевой речью на конференции GTC 2026, в которой затронул темы 20-летия платформы CUDA, переломных моментов в выводе моделей на этап inference и росте вычислительных требований, архитектуры Vera Rubin, интеграции Groq, революции агентных систем OpenClaw, а также физического AI и роботов.
Основные моменты GTC2026
1) Перспективы доходов дата-центров: Общий доход дата-центров за 2025-2027 годы достигнет 1 трлн долларов (в прошлом GTC называлась сумма 500 млрд долларов за 2025-2026 годы), что соответствует ожиданиям. Рыночные прогнозы уже поднялись выше 1 трлн долларов, а инвесторы ждут конкретных данных о заказах и т.п.
2) Производительность и стоимость: по двум ключевым параметрам — throughput tokens/watt и скорости обработки токенов — NVIDIA занимает лидирующие позиции в мире; стоимость токена у NVIDIA — самая низкая в мире.
3) Дата-центр становится “фабрикой токенов”:
Каждая такая “фабрика” ограничена мощностью (например, 1 ГВт), и должна управлять производством токенов по throughput и скорости.
Токены будут делиться на уровни, как сырьевые товары: бесплатный уровень (высокий throughput, низкая скорость) -> уровень за $3/миллион токенов -> за $6/миллион -> за $45/миллион -> за $150/миллион (лучшие низколатентные, с высокой пропускной способностью).
На примере дата-центра мощностью 1 ГВт: каждые 25% мощности выделяется на один уровень: Grace Blackwell может приносить в 5 раз больше дохода, чем Hopper, Vera Rubin — в 5 раз больше.
4) Vera Rubin: на базе шести типов чипов добавлен новый Groq 3 LPU.
① Vera Rubin: полностью жидкостное охлаждение (45°C горячей водой), полностью отменены кабели, установка сокращена с двух дней до двух часов;
② CPO Spectrum-X: полностью серийное производство, совместная разработка с TSMC;
③ CPU: единственный в мире дата-центровый CPU на базе LPDDR5, продается отдельно, станет бизнесом на миллиарды долларов;
Vera CPU Tray предназначен для Agentic workload, включает 8 Vera процессоров по 88 ядер, поддержка 8 каналов LPDDR5x, пропускная способность 1,2 ТБ/с на сокет. На Tray встроены 2 DPU BF4.
④ Vera Rubin: уже запущен в Microsoft Azure (первый rack). NVIDIA обеспечивает производство тысяч систем в неделю, а мощность AI-фабрик достигает нескольких ГВт в месяц;
⑤ Rubin Ultra: Rubin — горизонтальный модуль в шкафу, Rubin Ultra — вертикальный, вставляется в новый шкаф Kyber, внутри 144 GPU в одном NVLink домене, межблочные соединения — NVLink Switch вместо медных кабелей.
5) Groq 3 LPU: новая интегрированная чиповая архитектура, использующая HBM и Groq, — ожидаемый результат приобретения Groq.
Технически: Groq LP30 производится Samsung, поставки ожидаются в третьем квартале.
Один Groq — 500MB SRAM, Rubin — 288GB, Groq не способен полностью заменить крупные модели и KV Cache.
Решение: выпущен софт Dynamo, разбивающий inference на этапы:

  1. Предзагрузка (Prefill): подготовка модели к обработке пользовательских Prompt, выполняется на Vera Rubin;
  2. Внимание (Attention): расчет связи текущего токена с историей (KV Cache), выполняется на Rubin, с частым доступом к HBM;
  3. Передача (FNN): после определения контекста — предсказание следующего токена, чтение весов модели, что вызывает “проблему памяти”.
    Разделение inference на два этапа позволяет оставить “контекстную память” в HBM, а основные веса — в SRAM Groq, что значительно ускоряет работу.
    Между Rubin и Groq — Ethernet с RDMA, что снижает задержки примерно вдвое.
    6) Feynman: новая архитектура GPU + LP40 (LPU) + Rosa CPU (по имени Rosalind) + BlueField-5 + CX10.
    Масштабирование кабелей Kyber + CPO — впервые поддерживаются оба типа одновременно, даже на этапе Feynman.
    Хотя NVIDIA предпочитает CPO, клиенты склонны сначала использовать кабели, а потом переходить на CPO из-за простоты обслуживания.
    7) Другие новости:
    ① Космический дата-центр: Vera Rubin Space-1 — планируется разместить в космосе, решая проблему радиации и охлаждения (через радиацию, без конвекции и проводки);
    ② OpenClaw: SaaS-компании станут GaaS (Agent-as-a-Service). Агентные системы смогут обращаться к конфиденциальной информации, выполнять код и взаимодействовать с внешним миром — при этом обеспечивается корпоративная безопасность. Совместно с Peter Steinberger создана NemoClaw — дизайн для безопасности, включает сетевые барьеры и маршрутизаторы конфиденциальности, подключение к стратегиям SaaS;
    ③ Физический AI и роботы: в области автопилота — BYD, Geely, Hyundai, Nissan и другие присоединяются к Robtaxi, сотрудничают с Uber; в робототехнике — KUKA, ABB и другие производители, а также платформы дронов и роботов.

В целом, на этой конференции, кроме подтверждения смешанного использования кабелей и CPO, добавлен новый сервер с LPU от Groq. После приобретения Groq рынок уже давно ожидал этого, и даже прогноз на 3 года с доходом в 1 трлн долларов уже превзойден.
Общая тенденция NVIDIA — от микросхем к системам и сервисам, с акцентом на решение проблем памяти и интеграцию новых компонентов (DPU, LPU).
От Blackwell до Rubin — ключевые изменения связаны с внедрением AI в inference и Agent-среду, преодолением “memory wall”.
Второй блок — текущая ситуация NVIDIA: конференция кажется спокойной, нужны новые “истории роста”
Акции NVIDIA за последние полгода колеблются в диапазоне 170–200 долларов. Несмотря на рост капиталовложений крупных компаний и превосходные показатели, цена не растет, что вызывает опасения:

a) Продолжение капиталовложений крупных игроков: Meta, Google и др. увеличивают расходы в 2026 году, совокупный объем — свыше 660 млрд долларов, рост — 60%. Но доля этих расходов в доходах уже высока.
b) Доля рынка AI-чипов: NVIDIA удерживает более 75%, высокая цена и монопольное положение вызывают интерес у облачных провайдеров к альтернативам.
Вне Google, Broadcom (AVGO) уже получает крупные заказы от Anthropic, OpenAI и других, а некоторые клиенты разрабатывают собственные решения. Ожидается, что доля NVIDIA в рынке AI-чипов будет снижаться.
c) Конкуренция по продуктам: TPUv7 Google уже приближается к уровню B200 NVIDIA (массовое производство — 4 квартал 2024), отставая примерно на год.
NVIDIA добавила поддержку формата NVFP4 в Blackwell, что удваивает производительность в FP8, но в целом FP8 уже достаточно для большинства задач, TPUv7 — это скорее альтернатива.
Для борьбы с конкуренцией NVIDIA инвестирует стратегически и расширяет мощности, чтобы обеспечить цепочку поставок, например, инвестируя в OpenAI ($300 млн) и Anthropic ($100 млн), а также поддерживая новые лаборатории Meta MSL миллионами GPU, что частично — стратегия снижения цен и закрепления клиентов.
Учитывая эти опасения, оценка компании — относительно низкая. По расчетам, при доходе дата-центров в 1,15 трлн долларов (выше текущих прогнозов), рыночная капитализация — около 13-кратной прибыли по PE.
В прошлом квартале NVIDIA показала превосходную отчетность, но цена не выросла, поскольку рынок опасается, что после достижения 2027 года доходов в 1 трлн долларов рост в облачном сегменте будет ограничен.
В теории, даже при высокой капитализации облачных клиентов, рост доходов NVIDIA после 2027 года может остановиться, и рынок не готов переоценивать компанию по высоким мультипликаторам.
На GTC CEO заявил, что к 2027 году доходы дата-центров превысят 1 трлн долларов, — рынок уже давно это заложил в ожидания.
Большая часть внимания — маркетинг и стратегия, а не новые технологические анонсы.
В будущем, чтобы повысить PE, NVIDIA потребуется новые “истории роста”, например, Physic AI или космические вычисления.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить