Wall Street оценивает GTC: по определению Nvidia, вычислительная мощность — это доход, а токен — новая крупная товарная позиция

Вопрос AI · Как значительное снижение стоимости токенов способствует расширению спроса на ИИ?

Годовая конференция GTC компании NVIDIA послала ключевой сигнал: коммерческая логика вычислительных мощностей для ИИ претерпевает кардинальную перестройку — токены стали новым товаром массового спроса, а вычислительные ресурсы — источником дохода.

Руководство NVIDIA на этой GTC значительно повысило прогноз продаж дата-центров с ранее озвученных 500 миллиардов долларов (до 2026 года) до более чем 1 триллиона долларов (суммарно за 2025–2027 годы), при этом ясно указав, что продажи независимых CPU Vera и решений на базе раковин LPX будут учитываться отдельно. Участники рынка расценивают эту конференцию как сильное подтверждение продолжительности ИИ-цикла NVIDIA.

По данным аналитической платформы ChaseWind, последний отчет JPMorgan указывает, что эта цифра означает, что по сравнению с текущими ожиданиями рынка по доходам дата-центров за 2026–2027 годы существует как минимум 50–70 миллиардов долларов потенциального роста.

Банк Америки прямо цитирует слова руководства NVIDIA — «Токен — это новый товар массового спроса, а вычислительные мощности равны доходам» — и отмечает, что система Blackwell по сравнению с предыдущим поколением Hopper снизила себестоимость одного токена до 35 раз, а предстоящая серия Rubin, скорее всего, снизит её еще в 2–35 раз, в зависимости от типа нагрузки и архитектурных настроек.

В рамках нарратива NVIDIA такая постоянная сжатие себестоимости токенов является фундаментальной движущей силой масштабного расширения спроса.

Увеличение видимости спроса вдвое, двунаправленное стимулирование крупными клиентами и корпоративным рынком

Руководство NVIDIA сообщило, что заказы на системы Blackwell и Vera Rubin с высокой степенью уверенности превысили 1 триллион долларов, что вдвое больше, чем 500 миллиардов долларов, объявленных на конференции GTC по дата-центрам в октябре 2025 года. Также отмечается, что дополнительные заказы и отложенные поставки на 2027 год могут продолжать накапливаться в течение следующих 6–9 месяцев.

Структура спроса становится более диверсифицированной: примерно 60% приходится на сверхкрупные облачные провайдеры (внутреннее потребление ИИ переходит от рекомендательных и поисковых нагрузок к крупным языковым моделям), оставшиеся 40% — на компании, использующие CUDA в облаке для ИИ, партнеров NVIDIA, суверенные AI-структуры и промышленные/корпоративные клиенты.

Банк Америки отмечает, что новая перспектива в 1 триллион долларов совпадает с предыдущими ожиданиями рынка по доходам за три года около 970 миллиардов долларов, что подтверждает логику, аналогичную оценке в 450 миллиардов долларов, сделанной в октябре 2025 года на основе старой оценки в 500 миллиардов.

Особое внимание уделяется тому, что руководство NVIDIA подробно объяснило в рамках конференции ускорение обработки традиционных бизнес-нагрузок как важный драйвер спроса.

Компания объявила о сотрудничестве с IBM (ускорение WatsonX), Google Cloud (ускорение BigQuery, экономия около 76% затрат на Snap), Dell (платформа данных для ИИ) и представила две основные библиотеки CUDA-X — cuDF и cuVS.

JPMorgan считает, что этот тренд «сильно недооценен рынком» — его логика в том, что закон Мура утратил силу, и единственным жизнеспособным альтернативным путем является специализированное ускорение, что расширяет адресуемый рынок NVIDIA за пределы циклов обучения и вывода ИИ.

Интеграция Groq LPU: самое важное нововведение в архитектуре

JPMorgan оценивает интеграцию трех LPU Groq с Vera Rubin как «самое важное нововведение в архитектуре» на этой GTC.

Эта раздельная архитектура для вывода и обработки данных объединяет GPU Rubin (высокая пропускная способность, 288 ГБ HBM4, 22 ТБ/с пропускной способности, 50 PFLOPS NVFP4) и LPU Groq (низкая задержка, 500 МБ встроенной SRAM, 150 ТБ/с пропускной способности, 1.2 PFLOPS FP8): предварительная подготовка данных выполняется на Rubin, а часть декодирования внимания — также на Rubin, тогда как фронтальные сети и генерация токенов — на Groq LPU.

Рамочная система LPX включает 256 LPU, обеспечивает 128 ГБ объединенной SRAM, 40 ПБ/с пропускной способности памяти и 315 PFLOPS вычислительной мощности для вывода, планируется к выпуску в третьем квартале 2026 года.

Руководство NVIDIA заявило, что для нагрузок, требующих сверхвысокой скорости обработки токенов (генерация кода, инженерные вычисления, длинные контексты), около 25% энергопотребления дата-центра будет выделено под LPX, остальные 75% — под чистую Vera Rubin NVL72.

Данные Bank of America показывают, что после интеграции системы Rubin с SRAM LPX эффективность высокопроизводительных низкозадержных нагрузок может увеличиться в 35 раз по сравнению с предыдущим поколением. JPMorgan отмечает, что эта архитектура напрямую решает фундаментальную проблему — одновременного оптимизации пропускной способности (ограниченной FLOPS) и задержки (ограниченной пропускной способностью), что позволяет NVIDIA конкурировать на высоком уровне в сегменте высокопроизводительных выводных систем, где ранее доминировали ASIC-производители.

Параллельное развитие кабельных решений и CPO: стратегия «несколько ставок»

Руководство NVIDIA прямо ответило на спор между кабельными соединениями и CPO, подтвердив одновременное развитие обеих линий.

В текущем поколении Vera Rubin, рама Oberon использует медные кабели для расширения до NVL72 и оптические для расширения до NVL576; массовое производство коммутаторов Spectrum-6 SPX с объединенной оптической Ethernet-магистралью, разработанных совместно с TSMC, — руководство отмечает, что их оптическая эффективность по сравнению с традиционными модульными трансиверами выросла в 5 раз, а надежность — в 10 раз.

Для Rubin Ultra (вторая половина 2027 года) планируется использование рамы Kyber с расширением NVLink по медным кабелям (до 144 GPU), а также альтернативный вариант — NVLink с CPO. Feynman (2028) будет поддерживать оба варианта расширения — медные кабели и CPO, а также оснащен Spectrum-7 (204T, CPO) для горизонтального масштабирования.

Bank of America подчеркивает, что использование CPO для расширения и горизонтального обмена — полностью по желанию клиента, он может продолжать использовать медные кабели до подходящего момента. JPMorgan подтверждает, что оба варианта «согласованы» с их предыдущими прогнозами: расширение медными кабелями останется доминирующим по крайней мере до 2027 года, а доля CPO будет постепенно расти в сегментах горизонтального масштабирования и конфигурациях NVL576+.

Vera CPU: новый миллиардный источник дохода для AI-агентов

Руководство NVIDIA ясно заявило, что независимый бизнес Vera CPU «уже стал бизнесом в десятки миллиардов долларов», и Bank of America отмечает, что этот источник дохода пока не учтен в текущих рыночных ожиданиях, он является дополнительным вкладом.

Vera CPU оснащена 88 собственными ARM-ядрами Olympus, память LPDDR5X обеспечивает пропускную способность 1.2 ТБ/с (в два раза меньше, чем у традиционных серверных CPU), а через NVLink-C2C соединяется с GPU со скоростью 1.8 ТБ/с (в 7 раз быстрее PCIe Gen 6). Рамы Vera CPU включают 256 жидкостных охлаждаемых CPU, поддерживают более 22 500 одновременных процессов.

Руководство подчеркивает, что CPU становится узким местом в расширении AI-агентов — обучение с подкреплением и рабочие процессы агентов требуют большого количества CPU для тестирования и верификации выводов GPU. Meta уже масштабно внедряет предыдущее поколение CPU Grace, Vera заменит его в 2027 году.

JPMorgan квалифицирует этот доход как высокомаржинальный, повторяемый (развернутый вместе с GPU в AI-заводах), и структурно связан с кривой активизации AI-агентов, которую NVIDIA активно стимулирует.

Дорожная карта продукции до 2028 года, постоянное усиление архитектурного ритма

NVIDIA вновь подтвердило ежегодный цикл выпуска платформ: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).

Rubin Ultra будет иметь конфигурацию из 4 GPU, оснащенных 1 ТБ HBM4e, а также новую LPU-чиповую линию LP35 (с внедрением NVFP4), рама Kyber поддержит до 144 GPU по NVLink (седьмое поколение NVLink, 3.6 Тб/с на GPU, суммарная пропускная способность NVL576 — 1.5 Пб/с).

Подробности Feynman превзошли ожидания рынка:

Новый GPU выполнен по техпроцессу TSMC A16 (1.6 нм), включает технологию стеков и кастомизированную HBM; новый CPU получил название Rosa (в честь Розалинд Франклин), специально разработан для оркестровки рабочих нагрузок, связанных с межGPU, LPU, памятью и сетью; новый LPU — LP40, создан внутри команды Groq NVIDIA; также представлены DPU BlueField-5, суперсетевая карта ConnectX-10, NVLink 8 и Spectrum-7 (204T, CPO).

JPMorgan считает, что вертикально интегрированная платформа NVIDIA (уже охватывающая семь чипов, пять системных раковин и программный стек) трудно воспроизвести, а ускорение вывода и традиционных рабочих нагрузок способствует структурному расширению адресуемого рынка и постоянному росту клиентской базы, что поддерживает более продолжительный цикл капиталовложений в AI, чем ожидает рынок.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить