Разговор с вице-президентом по бизнесу Nvidia: наступает «момент ChatGPT» для роботов

Понимание сегодняшней Nvidia может быть сложнее, чем раньше, но как эта компания, влияющая на развитие многих областей ИИ, рисует будущее искусственного интеллекта, по-прежнему заслуживает изучения.

Сигналы расширения бизнеса Nvidia становятся очевидными. На текущей конференции GTC компания представила продукты, охватывающие ускорители для дата-центров, стойки, сетевое оборудование и несколько открытых моделей. В речи генерального директора Jensen Huang часто упоминались такие ключевые слова, как CUDA, GPU, LPU (языковой процессор), AI-ферма, роботы, автопилот, открытые модели. Эта компания, известная своими GPU, теперь, кажется, более точно определяется как производитель инфраструктуры для ИИ или целых AI-ферм.

Даже в сегменте ускорителей для дата-центров ассортимент продукции стал разнообразнее. Помимо платформы Rubin, к ней добавился LPU. Изначально LPU, являющийся специализированной интегральной схемой (ASIC), и универсальный GPU занимают разные ниши, но после приобретения лицензии на Groq Nvidia начала объединять эти два типа чипов.

За пределами 60% бизнеса, ориентированного на крупных облачных провайдеров, в более сложных 40% сегмента Nvidia также внедряет новые решения. Важными направлениями стали автоматизация в физическом AI и робототехника. Для развертывания физического AI Nvidia разрабатывает не только аппаратное обеспечение, но и платформы для автопилота и модели.

Понимание сегодняшней Nvidia может быть сложнее, чем раньше, но как эта компания, влияющая на развитие многих областей ИИ, рисует будущее искусственного интеллекта, по-прежнему заслуживает изучения. В ходе конференции GTC журналисты «Первого финансового канала» провели отдельные беседы с вице-президентом Nvidia по крупномасштабным и высокопроизводительным вычислениям Ian Buck и вице-президентом по Omniverse и моделированию Rev Lebaredian, чтобы понять идеи и соображения при создании продуктов Nvidia, обсудить феномен гетерогенности чипов, стратегию Nvidia в области физического AI и причины приближающегося «момента ChatGPT» в робототехнике.

Почему GPU по-прежнему доминируют

На базе технологий Groq Nvidia представила на GTC чипы LPU — Groq 3 и Groq 3 LPX. По словам, Groq 3 LPX в сочетании с CPU и GPU Rubin может увеличить пропускную способность inference в расчёте на мегаватт в 35 раз, а вторая половина года запланирована интеграция Groq 3 LPX в следующую генерацию AI-фермы Vera Rubin.

Появление Groq 3 означает, что GPU уже не является единственной формой ускорения для дата-центров Nvidia. Вопрос о том, как GPU справляются с вызовами ASIC, обсуждается давно. В конце прошлого года Nvidia заключила с Groq лицензионное соглашение, а основатели Groq, Джонатан Росс и Сани Мадра, вошли в команду Nvidia, что интерпретируется как стратегия противостоять рыночным вызовам. Основная особенность Groq LPU — низкая задержка inference. Включение LPU в продуктовую линейку — к чему это ведет?

По словам Huang, каждый токен из модели разного масштаба отличается. Для текущих задач по генерации токенов Rubin остается важной платформой, но появляется новый сегмент рынка. Модели растут, контекст увеличивается, что требует очень быстрой inference. Новая комбинация чипов позволяет удовлетворить эти требования.

Ian Buck объяснил, что Groq 3 LPU можно рассматривать как «усиленный пакет» для Rubin. LPU обладает невероятно быстрой SRAM-памятью для быстрого выполнения плавающих точек. Но есть ограничения: если использовать только LPU для моделей с триллионами параметров, потребуется десятки стоек, что сложно масштабировать, дорого и неэффективно. Однако, если объединить LPU и Rubin в одной стойке, можно использовать преимущества обоих — все вычисления внимания выполняются на GPU, а матричные операции экспертов — на LPU.

«Для большинства текущих чат-ботов или систем рекомендаций основное обслуживание — Rubin, LPU не заменит эти сценарии. Но для следующего поколения интеллектуальных систем при моделях с триллионами параметров, сотнями тысяч токенов в контексте и скоростью тысячи токенов в секунду, объединение двух чипов становится возможным», — отметил Ian Buck.

В то же время Nvidia не единственная, кто экспериментирует с разными чипами в дата-центрах. AMD, также производитель GPU, в конце февраля заключила с Meta соглашение о совместной разработке полуструктурированных чипов. В начале месяца исполнительный директор Nvidia, Su Zifeng, объяснила, что инфраструктура ИИ становится сложнее, появляется множество задач — и для обучения, и для inference, для больших и малых моделей. «На следующем этапе AI-инфраструктуры не существует одного чипа, который бы идеально справлялся со всем — это уже гетерогенный мир. Нужно учитывать цену за ватт и эффективность при масштабных нагрузках. ASIC всегда найдут свое место», — сказала она. Идеи Su Zifeng о стоимости вычислений и диверсификации задач совпадают с мнением Huang.

Но с развитием гетерогенных чипов возникает вопрос: будут ли ASIC все больше конкурировать с универсальными и программируемыми GPU, особенно когда отдельные ASIC, оптимизированные под конкретные задачи, показывают преимущества по скорости и стоимости?

Ian Buck считает, что речь идет о балансе между специализированными вычислительными требованиями и возможностями платформенной программируемости. «Можно сделать ASIC для GPT-OSS, в экстремальных условиях — использовать модель для изготовления чипа. Это будет эффективно. Но такая модель и её реализация навсегда зафиксированы в кремнии, что лишает возможности дальнейших улучшений, включая программные оптимизации, — и GPT-OSS не сможет стать быстрее, умнее или масштабнее», — отметил он.

Он рассказал, что DeepSeek-R1 был выпущен год назад, и с тех пор эффективность моделей выросла благодаря новым методам и более эффективной работе гибридных экспертных моделей на GPU. «Это стало возможным благодаря открытости и настраиваемости чипов, появлению новых методов выполнения гибридных моделей, таких как тензорное параллелизм, широкополосный экспертный параллелизм, пайплайнинг, а также переходу с FP16 на FP8 и FP4. Возможность программировать платформу дала прирост производительности в разы, снизила затраты и увеличила доходы».

Ian Buck привёл пример: около года команда из 400 инженеров Nvidia потратила примерно 4 месяца и 120 тысяч часов моделирования на GPU, чтобы ускорить DeepSeek-R1. Было найдено 38 способов программных оптимизаций, что увеличило производительность в 4 раза — только за счёт программных улучшений.

«Можно очень точно настроить под разные задачи или даже зашить модель прямо в чип, но тогда упустишь шанс разработать новые алгоритмы и технологии. Мы обнаружили, что около 95% оптимизаций и технологий, основанных на программируемости, применимы к любой модели в экосистеме, и помогают сделать следующую модель умнее», — сказал он.

Что касается включения Groq в экосистему CUDA, Ian Buck отметил, что хотя первая версия LPU ещё не готова, в планах — открыть программирование LPU в будущем, и обсуждается, будет ли это реализовано через CUDA или иными способами.

Создавая базу для физического AI

На GTC Nvidia анонсировала множество новостей в области физического AI. В робототехнике представлены симуляционная платформа Isaac, открытые модели Cosmos и Isaac GROOT для разработки, обучения и развертывания роботов. Cosmos 3 — первая универсальная модель для генерации синтезированных миров, физического AI и симуляции движений. В области автопилота Nvidia представила модель VLA (Visual Language Action) Alpamayo 1.5 для повышения возможностей автоматического вождения.

Nvidia в физическом AI уже не ограничивается аппаратным обеспечением — всё больше внимания уделяется программным решениям, включая глубокое моделирование и открытые модели.

Rev Lebaredian отметил, что сейчас открытость важнее, чем когда-либо. Nvidia вкладывает много в исследования и открытые технологии, особенно в области физического AI, потому что построение физического AI невозможно в одиночку. Для появления роботов с ChatGPT необходимо участие всех. Nvidia, будучи «центром AI», выступает связующим звеном в экосистеме, и именно с неё начинаются соответствующие работы.

Объясняя необходимость разработки базовых мировых моделей, Rev Lebaredian отметил, что большие языковые модели получают информацию из интернета, находят языковые паттерны, и в итоге создаётся интеллект. Nvidia использует аналогичный подход — создаёт базовые модели мира.

«Модели мира учатся на физических законах, а не на языковых правилах. Cosmos — открытая платформа, которая позволяет любой компании запускать её в своих вычислительных системах для различных целей. Помимо модели, Nvidia предоставляет данные, фреймворки и чертежи для их создания», — пояснил он. Это делается потому, что до полноценного физического AI и роботов ещё далеко, и открытость помогает ускорить развитие. Многие компании используют Cosmos для обучения и оценки моделей, превращая AI в учителя для других AI.

Что касается этапов развития физического AI, Lebaredian отметил, что для автопилота вызовы уже перешли из научной области в инженерную — речь о масштабировании и тестировании на всё большем числе автомобилей. Для универсальных роботов ситуация иная: их проблемы связаны с физической реализацией — отсутствием хороших робо-тел и рук, необходимостью улучшения сенсоров, приводов, моторов и аккумуляторов.

Он подчеркнул, что даже при создании идеального робо-тела, робот всё равно не сможет использовать его без долгих часов программирования. Сейчас индустрия находится в очень важном моменте: появляется достаточно технологий, чтобы сделать роботов умными, и скоро произойдёт прорыв — «момент ChatGPT» для роботов. Уже сейчас видно, как технологии и приложения начинают соединяться: например, inference позволяет Cosmos-агентам генерировать данные для обучения роботов.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить