黄仁勋 формирует «Токен-экономику»: NVIDIA приветствует эпоху интеллектуальных агентов

17 марта под утро на открытии конференции NVIDIA GTC, которую называют «Супербоулом» ИИ и «Весенним вечером» ИИ, «Искусственный интеллект-священнослужитель», основатель NVIDIA и генеральный директор Дженсен Хуанг снова вышел на сцену в центре внимания, обновляя физические пределы ударной технической бурей.

NVIDIA объявила, что Vera Rubin (новая чиповая архитектура) уже располагает семью новыми чипами, которые полностью запущены в серийное производство. Платформа Vera Rubin открывает новую эпоху Agentic AI, создавая крупнейшую в мире AI-«фабрику».

Конкретно эти продукты включают: NVIDIA Vera CPU (NVIDIA уже вышла на серверные CPU), NVIDIA Rubin GPU (флагманский GPU-продукт), NVIDIA NVLink 6 (шестое поколение микросхемы коммутатора NVLink, внутричиповые соединения), NVIDIA ConnectX-9 SuperNIC (сверхсетевая карта), NVIDIA BlueField-4 DPU (чип для хранения данных), NVIDIA Spectrum-6 (чип коммутатора Ethernet, поддерживает технологию CPO), а также новую интегрированную NVIDIA Groq 3 LPU (первая микросхема после выкупа Groq).

Можно видеть, что в семействе чипов есть не только CPU и GPU, которые всем хорошо знакомы, но и LPU от Groq, а также линейка продуктов целиком — чипы для хранения данных, чипы коммутаторов и т. д. Эти чипы также могут собираться в 5 типов стоек для работы в дата-центрах.

«Vera Rubin — это скачок через поколение: семь прорывных чипов, пять стоек и один гигантский суперкомпьютер — дают энергию каждому этапу развития ИИ», — сказал Дженсен Хуанг. «С выходом Vera Rubin точка перелома для Agentic AI уже наступила и будет запущено самое масштабное в истории строительство инфраструктуры».

В ходе выступления Хуанг также спрогнозировал, что выручка от AI-чипов Blackwell и Rubin к концу 2027 года достигнет 1 трлн долларов. По сравнению с прогнозом продаж на 500 млрд долларов в октябре прошлого года это уже вдвое больше.

Эта презентация, поистине, «невиданная прежде»: это не только GPU и не просто очередное обновление какой-то одной технологии. Хуанг вновь подчеркнул «экономику Token» и реализовал теорию «пятислойного пирога» для ИИ.

Один из трендов — то, что гиганты постоянно накапливают возможности, закрывают слабые места, расширяют цепочки по всей вертикали и формируют еще более мощные барьеры. Этап, когда состязание шло в одиночку — только чипы, только производительность — уже прошел. На сцене сейчас разворачивается жесткая всеобъемлющая системная гонка.

** Полное обновление Vera Rubin: от отдельного чипа к системной эпохе**

Как преемник эстафеты поколений Blackwell, NVIDIA запланировала массовое производство архитектуры Rubin (R100) во второй половине 2026 года. В базовом ядре эта архитектура полностью переходит на техпроцесс TSMC 3nm (N3P). Ее знаковый Vera CPU (на базе 88-ядерной собственной архитектуры Olympus) и Rubin GPU реализуют физически смысловую интеграцию в одном корпусе посредством технологии NVLink-C2C с пропускной способностью 1,8 TB/s.

Такая конструкция «без PCIe» с плотным взаимным связыванием снимает ограничения вычислительной мощности, связанные с традиционными каналами. При точности NVFP4 вычислительная мощность вывода на одном GPU возрастает до 50 PFlops, а мощность для обучения достигает 35 PFlops. Масштабируемая энергоэффективность вывода повышается более чем в 5 раз по сравнению с Blackwell.

На уровне прикладных сценариев Rubin создан специально для «агентного ИИ (Agentic AI)» и вывода по длинному контексту — как сердце цифровой фабрики. Он внедряет Transformer Engine 3.0 и платформу Inference Context Memory для хранения; через BlueField-4 DPU выполняется разгрузка нагрузки по управлению хранением, чтобы AI-агенты могли обрабатывать взаимосвязи контекста для десятков тысяч Token и проводить многошаговое логическое рассуждение и оперативные решения. Платформа оснащена сетью Spectrum-X Ethernet Photonics, поддерживающей технологию кремниевой фотоники (CPO). Общая внутренняя пропускная способность взаимных соединений внутри одного серверного шкафа NVL72 достигает 260 TB/s — это в несколько раз больше, чем суммарная межконтинентальная пропускная способность глобального интернета.

NVIDIA также представила стойку Vera CPU. Она построена на инфраструктуре высокой плотности жидкостного охлаждения, созданной на базе MGX; в нее интегрировано 256 Vera CPU — чтобы обеспечить масштабируемую, энергоэффективную емкость и при этом обладать мировым уровнем производительности в однопоточном режиме. Вместе со стойками GPU-компьютеров они закладывают CPU-основу для крупномасштабного Agentic AI и обучения с подкреплением — эффективность Vera вдвое выше, чем у традиционных CPU, а скорость выше на 50%.

В настоящее время клиенты, которые развертывают Vera CPU в сотрудничестве с NVIDIA, включают Alibaba, ByteDance, Meta и Oracle Cloud Infrastructure, а также CoreWeave, Lambda, Nebius и Nscale. Vera уже полностью запущена в серийное производство и будет поставляться во второй половине этого года.

Традиционные дата-центры и AI-инфраструктура сталкиваются с новыми изменениями. Дженсен Хуанг сказал: «В эпоху ИИ интеллектуальные Token — это новая валюта, а AI-фабрика — это инфраструктура, создающая эти Token. Благодаря референсному дизайну Vera Rubin DSX AI Factory и Omniverse DSX Blueprint (цифровому двойнику), мы предоставляем основу для построения AI-фабрик с самой высокой производительностью в мире, ускоряем время до первых доходов и максимизируем масштаб и энергоэффективность».

Инферентный чип Groq LPU: гибридная империя вычислений, построенная вместе с GPU

Далее посмотрим на вызывающие большой интерес чипы Groq.

К концу 2025 года архитектура Groq LPU (Language Processing Unit), получившая стратегическую лицензию NVIDIA на сумму 20 млрд долларов и глубоко интегрированная, — это «сверхзвуковой самолет-перехватчик для точного удара по задержкам», открывающий эпоху реального взаимодействия.

NVIDIA заявила, что представленная сейчас Groq 3 LPX (стойка) знаменует веху в ускоренных вычислениях. Стойка LPX включает 256 LPU-процессоров и располагает 128GB SRAM на кристалле и расширяемой пропускной способностью 640 TB/s. При совместном развертывании с Vera Rubin NVL72 Rubin GPU и LPU ускоряют декодирование за счет совместных вычислений каждой слоя AI-модели — тем самым обеспечивая вычисления для каждого выходного Token.

Одновременно LPX выполнена по полностью жидкостному дизайну и построена на инфраструктуре MGX. Она будет бесшовно интегрирована в следующую AI-фабрику Vera Rubin и будет доступна во второй половине этого года.

Входя в эпоху инференса, NVIDIA помимо GPU объединила новую архитектуру, существенно повысив эффективность.

На уровне техархитектуры Groq LPU отказалась от «спекулятивных» аппаратных решений в традиционных GPU, таких как сложное управление кэшем, предсказание ветвлений и перестановка инструкций. Вместо этого применяется детерминированная конвейерная архитектура. Такой подход полностью выносит аппаратную сложность на уровень компилятора: данные в чипе текут как по прецизионному конвейеру, без каких-либо неконтролируемых дрожаний (Jitter).

В прикладных сценариях, где многое решает практика, стойки LPX, усиленные технологией NVIDIA, становятся фактически единственным спасением для «агентного ИИ (Agentic AI)» и «интерактивного общения с голосом в реальном времени». В системах помощи при вождении или в роботах для высокочастотной торговли любое колебание вычислений на миллисекунды может привести к сбою решения; детерминированная вычислительная мощность LPU гарантирует, что время выполнения задач всегда остается неизменным.

Для сложных агентных цепочек, требующих многошагового рассуждения и даже сотен вызовов моделей, LPU сокращает «цепочечное» рассуждение, которое ранее занимало минуты, до нескольких секунд — так, чтобы ИИ мог вести естественный, плавный диалог и координацию в реальном времени, как человек. Чтобы поддержать новую вычислительную парадигму, NVIDIA бесшовно встраивает LPU-юниты в обширную экосистему CUDA с помощью технологии NVFusion и быстро планирует обученные веса с GPU на инференсный массив LPU через disaggregated (разделенную) архитектуру.

При поддержке этих возможностей NVIDIA отделяет обучение от инференса, создавая империю гибридных вычислений: GPU отвечает в тылу за обучение моделей с триллионами параметров и предварительную обработку длинных текстов, а массив LPU на передовой линии обеспечивает в 10 раз лучшую энергоэффективность, чем у противника, и мгновенный отклик — господствуя на рынке инференса в масштабе триллионов в реальном времени, официально объявляя о наступлении эпохи «немедленного инференса».

Выход «ракoвины» от NVIDIA: принять эпоху интеллектуальных агентов

Тем временем NVIDIA публикует ряд важных обновлений вокруг AI-агентов (Agent), открытых моделей и приложений по отраслям. Самое заметное для разработчиков — программный стек NemoClaw, предназначенный для сообщества OpenClaw. Недавно open-source проект OpenClaw стремительно набрал популярность в сообществе разработчиков; многие в отрасли рассматривают его как зачаток «персональной AI-операционной системы».

Дженсен Хуанг также высоко оценил OpenClaw. «OpenClaw открывает всем следующий рубеж в ИИ и становится самым быстрорастущим open-source-проектом в истории», — сказал Хуанг. «В отличие от традиционных AI-приложений цель OpenClaw — сделать так, чтобы AI-агенты работали непрерывно, как приложения: могли самостоятельно планировать задачи, вызывать инструменты и завершать сложные рабочие процессы».

В рамках этой модели NemoClaw предоставляет полный набор возможностей базового программного обеспечения, позволяя разработчикам одной командой установить модели NVIDIA Nemotron и недавно выпущенную среду выполнения OpenShell, а также добавлять AI-агентам функции управления безопасностью и конфиденциальностью. Благодаря изолированной песочнице, предоставляемой OpenShell, AI-агенты при доступе к инструментам и данным могут следовать установленным политикам безопасности и правилам конфиденциальности — тем самым повышая эффективность и одновременно обеспечивая безопасность данных.

NemoClaw также поддерживает смешанные вызовы локальных моделей и облачных моделей. Разработчики могут запускать модели Nemotron на пользовательских устройствах, а также получать доступ к передовым моделям в облаке через privacy-routing, сохраняя конфиденциальность данных и при этом получая более мощные вычисления. NVIDIA заявила, что NemoClaw может работать на разных специализированных вычислительных платформах, включая ПК и ноутбуки с видеокартами GeForce RTX, рабочие станции RTX PRO, а также системы DGX Station и DGX Spark — для обеспечения стабильной вычислительной мощности для AI-агентов, работающих круглосуточно.

Параллельно с развитием платформы для AI-агентов NVIDIA ускоряет создание экосистемы открытых моделей. На этой конференции NVIDIA объявила об учреждении Nemotron Coalition (союза Nemotron) — объединении множества ведущих AI-лабораторий и разработчиков моделей по всему миру, чтобы совместно продвигать развитие открытых передовых моделей.

Помимо сотрудничества на уровне экосистемы, NVIDIA также расширяет несколько продуктовых линеек открытых моделей, поддерживающих развитие в разных областях — включая AI-агенты, физический интеллект и медицинские научные исследования. Среди них модели серии NVIDIA Nemotron 3 дополнительно усиливают возможности понимания мультимодальности; выпускаются различные версии, включая Ultra, Omni и VoiceChat. Эти модели способны одновременно обрабатывать языковую, визуальную и аудиоинформацию, так что AI-агенты могут не только вести естественный диалог, но и выполнять сложные задачи рассуждения, извлекая ключевую информацию из различных источников данных, таких как видео и документы.

Помимо AI-агентов в цифровом мире, NVIDIA продвигает искусственный интеллект в реальный мир. Среди выпущенных на этот раз новых моделей — различные базовые модели для роботов и систем автоматического вождения. Например, NVIDIA Isaac GR00T N1.7 — это модель визуального языка и действий, ориентированная на человекоподобных роботов: она позволяет роботу в реальной среде выполнять восприятие, рассуждение и принятие решений об действиях.

NVIDIA Alpamayo 1.5 нацелена на сценарии автоматического вождения. Благодаря возможностям повышения качества вывода, включая навигационные подсказки, поддержку множества камер и настраиваемые параметры камер, она улучшает способность автомобиля к выводу; а готовящаяся к выходу NVIDIA Cosmos 3 называется первым единым «модельным фундаментом мира», который объединяет генерацию мира, физическое рассуждение и симуляцию действий. Ожидается, что он поможет роботам и системам автоматического вождения завершать обучение и принятие решений в сложных условиях.

От платформы AI-агентов до экосистемы открытых моделей, затем до приложений в робототехнике, автоматическом вождении и биологических науках — NVIDIA постепенно выстраивает AI-технологический стек, охватывающий цифровой и физический миры. По мере того как в экосистему открытых моделей и AI-агентов будут приходить больше разработчиков и компаний, эта система также, как ожидается, будет дальше стимулировать инновации и внедрение искусственного интеллекта в глобальном масштабе.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить