От GPU к LPU: Nvidia масштабно атакует чипы для вывода, Дженсен Ху снова делает важный ход

robot
Генерация тезисов в процессе

«Хуасия Шибao» журналист Ши Фэйюэ, Пекин, репортаж

Направление индустрии ИИ изменилось. Несколько лет назад все усердно «обучали модели» — подавали данные на GPU, ожидая появления интеллекта. Тогда GPU Nvidia был единственным лидером, никого не мог потревожить, но в последние два года толпы интеллектуальных агентов хлынули на рынок, Manus вышел за рамки, OpenClaw заполнил экраны, производители моделей и облачные сервисы начали зарабатывать на продаже токенов, Cerebras, держа флаг «быстрее и дешевле», разрывают территорию, которую долгое время занимала Nvidia.

В индустрии наконец осознали: обучение продолжается, но «вывод» уже стал доминирующим. Nvidia, естественно, не упустит эту рыночную возможность — она тоже хочет отрезать кусок этого пирога. 17 марта на GTC 2026 генеральный директор Nvidia Дженсен Хуанг представил новое оружие — Groq 3 LPU, активно наступая на рынок процессоров для вывода. Он также озвучил цифры: к концу 2027 года годовой доход двух продуктовых линий Blackwell и Rubin достигнет 1 триллиона долларов, что вдвое превышает прогноз полугода назад.

Обучение и вывод — обе стратегии

На этот раз Nvidia официально представила платформу Vera Rubin, оснащённую семью чипами: Rubin GPU, Vera CPU, ConnectX-9 SuperNIC, BlueField-4 DPU, NVLink 6 Switch, Spectrum-X 102.4T CPO и новым интегрированным Groq 3 LPU.

«LPU» — полное название «Language Processing Unit», то есть устройство обработки языка — специализированный ускоритель для ИИ-вывода. В сочетании Rubin GPU и Groq LPU увеличат пропускную способность с текущих 100 токенов в секунду до 1500 и более, что идеально подходит для сценариев взаимодействия с ИИ-агентами.

Также Nvidia анонсировала полноценную раму для размещения нового ускорителя Groq — Groq LPX. По словам вице-президента по крупномасштабным вычислениям и HPC Иана Бака, Groq LPX повысит производительность декодирования «каждого слоя» модели ИИ на каждом токене и позволит Rubin обслуживать следующую передовую область искусственного интеллекта — системы с множеством агентов, которые требуют обработки триллионов параметров модели и интерактивной работы в контекстных окнах на миллионы токенов.

Желание Nvidia занять рынок процессоров для вывода не возникло вчера — компания давно подготовилась. В декабре 2025 года она приобрела ключевые технологии Groq за около 20 миллиардов долларов, а основатели присоединились к Nvidia. Groq 3 LPU — первый публичный результат этой сделки.

По прогнозам аналитического отдела Goldman Sachs, доля поставок AI-чипов, не являющихся GPGPU, в AI-серверах будет расти — с 36% в 2024 году до 45% в 2027, тогда как доля GPGPU снизится с 64% до 55%.

Старший аналитик InSemi Research Цин Фэнвэй рассказал нашему корреспонденту, что GPU будет более конкурентоспособен в базовом обучении больших моделей и сценариях с высокой универсальностью (например, в публичных облаках), а ASIC (включая TPU, DPU, NPU, LPU) — в стадии развертывания моделей и при выводе, где важны энергоэффективность и задержки.

«Поэтому запуск LPU — стратегический шаг Nvidia для перехода от потребности в вычислительных мощностях для обучения к потребности в выводе. Это важный ход для устранения слабых мест. Более тонкая продуктовая линейка отвечает на изменения рынка и вызовы конкурентов», — отметил директор Института передовых технологий Чжан Сяо-жун.

По сообщениям СМИ, планы Nvidia по удовлетворению растущего спроса на вывод уже приносят плоды: в прошлом месяце OpenAI заявил, что достиг соглашения с Nvidia о закупке чипов с «специальными возможностями для вывода».

Эволюция экосистемы: от чипов до фабрик

За последние годы генеративный ИИ взорвал рынок, крупномасштабное обучение моделей стало абсолютной «черной дырой» для вычислительных ресурсов. Благодаря доминированию GPU Nvidia получила львиную долю этой волны, её показатели и рыночная капитализация стремительно росли, а прибыль была огромной.

Однако, по мере того как параметры моделей достигли эффекта убывающей отдачи, тренд замедлился после двух лет бурного роста. С 2025 года центр внимания сместился — на интеллектуальных агентов и контекстные системы. Самый яркий сигнал — захват соцсетей OpenClaw, который вышел за рамки технологического сообщества и проник в информационные потоки обычных пользователей.

Интеллектуальные агенты — ключевой фактор роста спроса на вывод. Их основные сценарии — именно вывод, а не обучение. Это подтверждается множеством авторитетных исследований и отраслевых аналитик. Когда возможности ИИ эволюционируют от базового обучения моделей к созданию рабочих потоков и интеллектуальных агентов, потребность в вычислительных мощностях смещается с обучения на вывод.

Как ведущий игрок в инфраструктуре ИИ, Nvidia должна адаптироваться к этим изменениям, и это включает масштабное обновление всей экосистемы.

在 GTC, кроме анонса LPU, Nvidia совместно с командой, возглавляемой основателем OpenClaw Питером Штайнбергером, собрала ведущих экспертов по безопасности и вычислениям и представила архитектуру NeMoClaw. Она включает встроенные технологии OpenShell, механизмы защиты сети и маршрутизации данных, обеспечивая безопасную работу систем агентов в частных средах.

Также Nvidia представила референсный дизайн AI-фабрики Vera Rubin DSX, показывающий, как проектировать, строить и эксплуатировать инфраструктуру всей фабрики ИИ — с вычислительными мощностями, сетью Spectrum-X Ethernet и хранилищами, чтобы обеспечить повторяемость, масштабируемость и оптимальную производительность кластера.

Хуанг заявил: «В эпоху ИИ умные токены — новая валюта, а AI-фабрика — основа для их генерации. Благодаря референсному дизайну Vera Rubin DSX и Omniverse DSX Blueprint (цифровой двойник) мы создаем базу для построения самой продуктивной в мире фабрики ИИ, ускоряя получение первого дохода и максимизируя масштаб и энергоэффективность».

Что касается доли флагманских GPU Nvidia после запуска LPU, то «Хуасия Шибao» поинтересовалась у Nvidia, и на момент публикации ответа не поступило. «Вхождение Nvidia на рынок процессоров для вывода не означает ущерба для GPU-бизнеса, наоборот, в сотрудничестве с LPU откроются новые рынки», — отметил Сяо-жун.

Ведущий эксперт аналитического центра Юань Бо подчеркнул, что в краткосрочной перспективе GPU благодаря высокой адаптивности к сценарию и барьерам экосистемы доминирует на рынке, особенно в обучении моделей. В долгосрочной перспективе обе линии не будут полностью противоположными, а скорее объединятся и разделятся по сегментам. «На аппаратном уровне GPU будет интегрировать более мощные специализированные ядра, а специализированные чипы — увеличивать программируемость. На рынке сформируется иерархия: ведущие платформы для инноваций и универсальных решений, а также масштабируемых решений для вывода на базе специализированных чипов», — добавил он.

На рынке ASIC уже есть конкуренты Nvidia, такие как Cerebras за рубежом, а также китайские компании — Ханьвэньци, Huawei, SuYuan Tech и другие. Сяо-жун считает, что выход Nvidia на рынок процессоров для вывода — вызов и стимул для отечественных производителей, создаст сложную ситуацию «давления» и «вынуждения», что ускорит перестройку отрасли и технологический прогресс.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить