Бомба! Nvidia выпустила 7 чипов подряд, выступление Дженсена Хуана заполнило соцсети

17 марта в ранние часы состоялась ежегодная конференция GTC компании NVIDIA. Основатель и CEO Дженсен Хуанг в ходе основного выступления объявил о нескольких значимых технологических прорывах и сделал смелое предсказание о новом поколении AI-ускоряющих чипов, которое, по его мнению, принесет как минимум 1 триллион долларов дохода.

После его выступления акции NVIDIA резко выросли: внутри дня максимум прибавки составил 4,31%, а по итогам закрытия — 1,65%.

В концептуальных секторах рынка A-акций около 60 компаний связаны с концепцией NVIDIA, их суммарная рыночная капитализация превышает 2,7 трлн юаней. Лидером является Industrial Fuxin (601138), за ним следуют Honghong Technology (300476), Invec (002837), а также Qianxin Technology (603296), Inspur (000977), Tsinghua Unigroup (000938), Magmet (002851) и другие.

С начала года акции, связанные с NVIDIA, демонстрируют разную динамику: около 60% выросли, лидером стал Litong Electronics (603629), увеличившись в цене в 1,3 раза. Также заметно выросли He Linwei Na и Robotech (300757) — на 86,82% и 62,42% соответственно. В диапазоне 20–50% подорожали Hongchang Electronics (603002), Shunwang Technology (300113), Magmet, Hangjin Technology (000818).

На GTC NVIDIA объявила, что семь новых чипов на базе архитектуры Vera Rubin уже полностью запущены в производство, а платформа Vera Rubin открывает новую эру Agentic AI, создавая крупнейшую в мире AI-ферму.

Конкретно эти чипы включают:

NVIDIA Vera CPU (да, NVIDIA вышла на рынок серверных CPU)

NVIDIA Rubin GPU (флагманский GPU)

NVIDIA NVLink 6 (шестое поколение NVLink — межчиповая связь внутри системы)

NVIDIA ConnectX-9 SuperNIC (суперсетевая карта)

NVIDIA BlueField-4 DPU (хранение данных)

NVIDIA Spectrum-6 (Ethernet-коммутатор с поддержкой CPO)

Также представлен новый интегрированный чип NVIDIA Groq 3 LPU (первый после приобретения Groq).

Видно, что семейство чипов включает не только привычные CPU и GPU, но и LPU от Groq, а также чипы для хранения данных и коммутаторы. Эти компоненты могут объединяться в 5 различных системных шкафов для работы в дата-центрах.

Платформа Vera Rubin объединяет все эти чипы, формируя мощный суперкомпьютер AI. Он способен поддерживать масштабное предварительное обучение, дообучение, тестирование и реальное интеллектуальное предсказание.

«Vera Rubin — это скачок в развитии — семь прорывных чипов, пять системных шкафов и один гигантский суперкомпьютер — для каждого этапа AI», — заявил Хуанг. «С запуском Vera Rubin наступает поворотный момент Agentic AI, и начнется крупнейшее в истории строительство инфраструктуры.»

Также он предсказал, что доходы от AI-чипов Blackwell и Rubin к концу 2027 года достигнут 1 трлн долларов, что вдвое превышает прошлогодний прогноз в 500 млрд.

Сегодняшнее объявление — беспрецедентное: речь идет не только о GPU или отдельной технологии, а о комплексном системном подходе. Хуанг вновь подчеркнул важность экономики Token и реализовал концепцию «пяти уровней пирога» AI.

Еще в феврале на предварительной презентации GTC 2026 он заявил: «Мы подготовили несколько новых чипов, которых мир еще не видел. Все технологии достигли предела, поэтому ничего простого не будет.»

С одной стороны, описание «уникальных новых чипов» вызывает энтузиазм, ведь NVIDIA за последние 10 лет постоянно выпускала высокопроизводительные чипы, делая сверхожидания нормой. Технологический путь компании ясен: от Hopper, Blackwell, Rubin до Feyman. Хуанг ориентируется на как минимум 5 лет вперед по мощности.

С другой стороны, утверждение «все технологии достигли предела» не просто так — оно вызывает опасения на рынке. Внутренний смысл — что прорывы в масштабах, возможно, были переоценены, и дальнейшие значительные улучшения станут сложнее.

На этом мероприятии NVIDIA продолжила системные инновации. В развитии AI, если последние два года шла гонка за вычислительные мощности, то с 2026 года начинается новая эпоха системного развития. Теперь борьба идет не только за отдельные чипы, а за инфраструктурные системы.

Хуанг в прошлом году говорил, что NVIDIA должна стать компанией по созданию AI-инфраструктуры, и сегодня это реализуется. Компания перестает быть просто «продавцом железа», а создает полноценную платформу для AI-экосистемы, стремясь стать «водой и электричеством» эпохи AI.

Кроме того, NVIDIA анонсировала ряд важных новинок в области AI-агентов, открытых моделей и межотраслевых решений: выпустила Nemo Claw — версию «рака» NVIDIA; представила проект Physical AI Data Factory — открытую платформу для физического AI, ускоряющую разработку роботов, визуальных AI-агентов и автономных автомобилей; а также запустила Space-1 Vera Rubin — сервис космических вычислений, внедряя AI в орбитальные дата-центры, геопространственный интеллект и автономные космические операции.

Тенденция очевидна: крупные компании наращивают возможности, устраняют слабые места, расширяют цепочки поставок и формируют более мощные барьеры. Этап борьбы только за чипы и производительность прошел — начинается системная, комплексная и жесткая конкуренция.

Революция Vera Rubin: от отдельных чипов к системной эпохе

В качестве преемника Blackwell NVIDIA планирует в 2026 году начать массовое производство архитектуры Rubin (R100). В основе — переход на технологию TSMC 3 нм (N3P). Важной особенностью является интеграция Vera CPU (на базе 88-ядерной архитектуры Olympus) и Rubin GPU в физическом смысле с помощью NVLink-C2C со скоростью 1,8 ТБ/с.

Эта «отказ от PCIe» — плотная интеграция, которая снимает ограничения по пропускной способности. В режиме inference при точности FP4 один GPU достигает 50 PFlops, а обучение — 35 PFlops. Энергоэффективность при масштабировании в inference выросла в 5 раз по сравнению с Blackwell.

Ключевые системы — это новые системные шкафы. Например, Vera Rubin NVL72 объединяет 72 Rubin GPU и 36 Vera CPU через NVLink 6, оснащен ConnectX-9 SuperNIC и BlueField-4 DPU для повышения эффективности.

При обучении больших моделей Rubin требует в четыре раза меньше GPU по сравнению с Blackwell, обеспечивает в 10 раз выше пропускную способность на ватт и в 10% стоимости за токен. Эта система предназначена для глобальных AI-фабрик, и может масштабироваться через InfiniBand и Ethernet Spectrum-X, сохраняя высокую загрузку и сокращая время обучения.

В приложениях Rubin — сердце AI-фермы для агентных систем и длинных контекстов. Внедрены Transformer Engine 3.0 и Inference Context Memory, а BlueField-4 DPU разгружает хранение данных, позволяя обрабатывать десятки тысяч токенов и выполнять многошаговые логические выводы в реальном времени. Внутренний канал связи — Spectrum-X с пропускной способностью 260 ТБ/с, что в несколько раз превышает глобальную интернет-ширину.

Кроме GPU-решений, NVIDIA представила Vera CPU — основанный на MGX модуль с 256 CPU, обеспечивающий масштабируемость, энергоэффективность и высокую однопоточную производительность. В связке с GPU-решениями они создают платформу для масштабных агентных AI и обучения с подкреплением — Vera в два раза эффективнее обычных CPU, скорость — на 50% выше.

Клиенты, использующие Vera CPU, — Alibaba, ByteDance, Meta, Oracle Cloud, CoreWeave, Lambda, Nebius, Nscale. В этом году Vera полностью запущена в производство и начнет поставки во второй половине.

Параллельно NVIDIA уделяет внимание энергоэффективности. Энергетическая инфраструктура — главный вызов AI-инфраструктуры. Компания сотрудничает с энергетическими компаниями для быстрого получения электроэнергии и стабилизации электросетей, а также совместно с более чем 200 дата-центрами запустила платформу DSX, применяемую в Vera Rubin.

Новая платформа DSX включает Max-Q — для динамического распределения электроэнергии по всему AI-заводу, позволяя использовать на 30% больше инфраструктуры при фиксированном электроснабжении. А программное обеспечение Flex превращает AI-завод в актив электросети, высвобождая до 100 ГВт свободной мощности.

К этапу Vera Rubin NVIDIA создает не просто видеокарты, а «суперкомпьютерные узлы», объединяющие вычислительную мощность, связь, хранение и системы жидкостного охлаждения — новый уровень AI-инфраструктуры с затратами на токены в десятки раз ниже и в 8 раз выше по энергоэффективности.

Как отмечает NVIDIA, инфраструктура AI быстро эволюционирует: от разрозненных чипов и серверов — к полностью интегрированным системам уровня шкафов, POD, AI-заводам и суверенному AI.

Компания даже представила референсный дизайн Vera Rubin DSX AI-завода, показывающий, как проектировать, строить и управлять всей инфраструктурой — от вычислений и сетей до хранения данных, чтобы обеспечить масштабируемость и высокую производительность.

Традиционные дата-центры и AI-инфраструктура переживают новую волну преобразований. Хуанг заявил: «В эпоху AI умные токены — новая валюта, а AI-завод — инфраструктура для их генерации. С Vera Rubin DSX AI Factory и Omniverse DSX Blueprint мы создаем основу для самых продуктивных AI-заводов в мире, ускоряя получение первых доходов и максимизируя масштаб и энергоэффективность.»

Также он анонсировал следующую систему Feynman, которая будет оснащена новыми GPU, LPU, новым CPU Rosa, Bluefield 5 и архитектурой Kyber, поддерживающей кабели и расширения CPO. Выпуск запланирован на 2028 год.

Groq LPU — гиперскоростной inference-чип: создание гибридной империи с GPU

Рассмотрим популярный чип Groq.

К концу 2025 года NVIDIA через стратегическую лицензию на 200 млрд долларов и глубокую интеграцию запустит архитектуру Groq LPU (Language Processing Unit). Этот чип — «гиперзвуковой истребитель» для минимизации задержек и запуска эпохи реального взаимодействия. Он расширяет границы AI, переходя от обучения к inference, благодаря новой парадигме программируемых силиконовых чипов под руководством основателя Groq Джонатана Росса (бывший главный инженер TPU в Google). Это позволяет преодолеть узкое место GPU в генеративных AI-сценариях.

NVIDIA заявила, что Groq 3 LPX — это важный этап в развитии ускоренных вычислений. В нем 256 LPU-обработчиков с 128 ГБ встроенной SRAM и пропускной способностью 640 ТБ/с. В связке с Vera Rubin NVL72 они совместно обрабатывают слои AI-моделей, ускоряя декодирование и обеспечивая вычисления для каждого токена.

LPX специально создан для систем с низкой задержкой и большим контекстом. В сочетании с Vera Rubin он обеспечивает в 35 раз выше пропускную способность на киловатт и в 10 раз больше дохода при работе с триллионами параметров.

Архитектура LPX оптимизирована под модели с триллионами параметров и миллионами токенов, работает в связке с Vera Rubin и обеспечивает максимальную эффективность по мощности, памяти и вычислениям. Это открывает новый уровень inference — сверхвысокий класс, триллионные параметры, миллионы токенов.

LPX использует полностью жидкостное охлаждение и строится на базе инфраструктуры MGX, интегрируется в Vera Rubin и будет доступен во второй половине этого года.

В эпоху inference NVIDIA объединяет новые архитектуры, значительно повышая эффективность.

Технически, LPU от Groq отказалась от сложных кешей, предсказаний ветвлений и переупорядочивания команд — «догадок», свойственных GPU. Вместо этого реализована детерминированная конвейерная архитектура, которая исключает непредсказуемый jitter, делая поток данных максимально стабильным.

Чтобы преодолеть «памятный барьер», LPU отказалась от HBM и использует 230 МБ встроенной SRAM, увеличивая пропускную способность до 80 ТБ/с — в 10 раз больше, чем у топового Blackwell GPU. Благодаря этому, при inference с одним батчем задержка становится практически незаметной, а скорость генерации токенов — свыше 1600 в секунду, что превращает большие языковые модели из «поэтического бормотания» в мгновенное создание текста.

Проще говоря, текущий эффект «печати» в диалогах — из-за недостаточной скорости вычислений. С LPU AI сможет мгновенно выдавать весь текст целиком. Это кардинально изменит качество взаимодействия.

В практических приложениях, например в автоматическом вождении или высокочастотной торговле, даже миллисекундные колебания могут привести к ошибкам. LPU обеспечивает постоянство времени выполнения задач, что критично для таких систем.

Для сложных цепочек с множеством шагов и сотнями вызовов моделей LPU сокращает время с минут до секунд, делая диалог с AI естественным и быстрым. Для этого NVIDIA интегрировала LPU в свою экосистему CUDA через технологию NVFusion, позволяющую быстро передавать обученные веса из GPU в LPU.

В результате, NVIDIA разделяет обучение и inference, создавая гибридную имперскую систему: GPU занимается обучением и подготовкой больших моделей, а LPU — реальным inference с высокой скоростью и эффективностью, доминируя на рынке триллионных параметров и реального времени.

NVIDIA представляет «рака» — новый символ эпохи интеллектуальных агентов

Кроме того, NVIDIA развивает платформу AI-агентов, открытые модели и межотраслевые решения. В рамках этого выпущена Nemo Claw — версия «рака» для экосистемы OpenClaw; создана коалиция Nemotron Coalition — объединение ведущих AI-лабораторий и разработчиков моделей; расширена линейка открытых моделей, включая серии Nemotron 3, Ultra, Omni, VoiceChat, способные обрабатывать язык, визуальные и голосовые данные, выполнять сложные задачи и извлекать информацию из видео и документов.

Также NVIDIA продвигает AI в реальный мир: новые модели для роботов и автотранспорта, например Isaac GR00T N1.7 — модель для восприятия и действий роботов; Alpamayo 1.5 — для автономных автомобилей; и Cosmos 3 — универсальный «модель мира», объединяющая генерацию, физические расчеты и симуляцию действий, что поможет роботам и авто в сложных условиях.

От AI-агентов и открытых моделей до роботов, автотранспорта и биомедицины — NVIDIA создает комплексную систему, объединяющую цифровой и физический миры. С расширением экосистемы и привлечением новых разработчиков, эта система будет стимулировать инновации и внедрение AI по всему миру.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить