黃仁勳 формує «Токен-економіку» NVIDIA обіймає епоху агентів

17 березня о першій годині ночі, на відкритті конференції GTC від NVIDIA — яку називають «суперкубком AI» і «весняним гала-концертом AI» — «AI-гуру», засновник і CEO NVIDIA Дженсен Хуанг знову вийшов на сцену, оновлюючи фізичні межі за допомогою технологічної бурі.

NVIDIA оголосила, що Vera Rubin (найновіша архітектура чипів) наразі має вже сім нових чипів, які повністю запущені у серійне виробництво, а платформа Vera Rubin відкриває еру Agentic AI, будуючи найбільшу у світі «AI-фабрику».

Зокрема, ці продукти чипів включають: NVIDIA Vera CPU (NVIDIA вже вийшла на серверні CPU), NVIDIA Rubin GPU (флагманський GPU-продукт), NVIDIA NVLink 6 (шосте покоління комутатора NVLink, внутрішнє з’єднання чипів), NVIDIA ConnectX-9 SuperNIC (супермережна карта), NVIDIA BlueField-4 DPU (чип зберігання), NVIDIA Spectrum-6 (чип Ethernet-комутатора з підтримкою технології CPO), а також новий інтегрований NVIDIA Groq 3 LPU (перша чипова розробка після поглинання Groq).

Як видно, у сімействі чипів присутні не лише знайомі CPU та GPU, а й LPU від Groq, а також повний спектр продуктів — зберігання та комутації. Ці чипи можуть формувати 5 типів стійок (rack) і працювати у дата-центрах.

«Vera Rubin — це стрибок між поколіннями: сім проривних чипів, п’ять стійок і один гігантський суперкомп’ютер — дають енергію кожному етапу розвитку AI», — сказав Дженсен Хуанг. «З запуском Vera Rubin точка перегину для Agentic AI вже настала, і це відкриє найбільше за масштабом будівництво інфраструктури в історії».

Під час виступу Дженсен Хуанг також спрогнозував, що до кінця 2027 року виручка від AI-чипів Blackwell і Rubin досягне 1 трильйона доларів. Порівняно з прогнозом продажів у 500 мільярдів доларів у жовтні минулого року, це вже вдвічі більше.

Цю презентацію можна назвати «безпрецедентною». Вона стосується не лише GPU і не просто чергового оновлення якоїсь однієї технології. Дженсен Хуанг знову підкреслив «токен-економіку» та реалізував теорію «п’ятишарової “пирога” для AI».

Один із трендів полягає в тому, що гіганти дедалі більше концентрують можливості, закривають прогалини, розширюють зв’язки угору та вниз по ланцюгу створення вартості, формуючи ще потужніші бар’єри. Етап «соло-перегонів» лише за чипом, продуктивністю тощо вже минув — іде жорстка всебічна системна конкуренція.

Повна революція Vera Rubin: від одиночного чипа до системного рівня

Як наступник «через покоління» після Blackwell, NVIDIA визначила масове виробництво архітектури Rubin (R100) у другій половині 2026 року. У базовій, фундаментальній частині цієї архітектури відбувається повний перехід на технологічний процес TSMC 3nm (N3P). Її фірмовий Vera CPU (на базі 88-ядерної власної архітектури Olympus) та Rubin GPU через технологію NVLink-C2C зі швидкістю 1,8 TB/s реалізують інтеграцію в одному пакеті в прямому фізичному сенсі.

Цей дизайн «де-ПСІе-зації» з надщільним зв’язуванням знімає обмеження обчислювальної потужності, притаманні традиційним лініям передачі. У точності NVFP4 інференсна обчислювальна потужність одного GPU зростає до 50 PFlops, тренувальна — до 35 PFlops. Масштабована енергоефективність при інференсі підвищується більш ніж у 5 разів порівняно з Blackwell.

У площині сценаріїв застосування Rubin спеціально створений як серце цифрової фабрики для «агентного AI (Agentic AI)» та довгого контексту. Він запроваджує Transformer Engine 3.0 та платформу Inference Context Memory, а за допомогою BlueField-4 DPU знімає навантаження з керування зберіганням, що дозволяє AI-агентам обробляти зв’язки контексту для десятків тисяч Token і виконувати багатокрокове логічне міркування та ухвалення рішень у реальному часі. Платформа оснащена мережею Spectrum-X Ethernet Photonics, що підтримує технологію кремнієвої фотоніки (CPO). Загальна внутрішня пропускна здатність у межах одного стійкового шафового модуля NVL72 досягає 260 TB/с, що еквівалентно кільком разам сумарної пропускної здатності глобального інтернету для транскордонного трафіку.

NVIDIA також представила стійку Vera CPU. Вона створена на основі MGX і є високощільною інфраструктурою з рідинним охолодженням. Вбудовано 256 Vera CPU для забезпечення масштабованої, енергоощадної потужності, а також має світовий рівень продуктивності в одному потоці. Разом із стійками GPU-комп’ютерів вони формують CPU-основу для масштабного Agentic AI і reinforcement learning. Ефективність Vera — удвічі вища за традиційні CPU, а швидкість — на 50% вища.

Наразі клієнти, що співпрацюють з NVIDIA і розгортають Vera CPU, включають Alibaba, ByteDance, Meta, Oracle Cloud Infrastructure, а також CoreWeave, Lambda, Nebius і Nscale. Vera вже повністю запущена у серійне виробництво і постачатиметься у другій половині цього року.

Традиційні центри обробки даних і AI-інфраструктура стикаються з новими змінами. Дженсен Хуанг зазначив: «В епоху AI інтелектуальні Token — це нова валюта, а AI-фабрика — це інфраструктура, яка генерує ці Token. За допомогою референсного дизайну Vera Rubin DSX AI Factory і Omniverse DSX Blueprint (цифрового двійника) ми надаємо основу для побудови AI-фабрик із найвищою продуктивністю у світі, прискорюємо час до першого доходу і максимізуємо масштаб і енергоефективність».

Groq LPU: чип для інференсу — гібридна імперія обчислень разом із GPU

Розглянемо тепер дуже очікувані чипи Groq.

Наприкінці 2025 року NVIDIA через стратегічну ліцензію на 20 мільярдів доларів і глибоку інтеграцію представила архітектуру Groq LPU (Language Processing Unit) — «надзвуковий снаряд для точного знищення затримок», що відкриває еру реальної взаємодії.

NVIDIA заявила, що випуск Groq 3 LPX (стійка) є важливою віхою у прискорених обчисленнях. Стійка LPX містить 256 процесорів LPU, має 128 ГБ SRAM на кристалі та розширювану пропускну здатність 640 TB/с. Коли LPX розгортають разом із Rubin GPU NVL72, Rubin GPU і LPU за рахунок спільних обчислень AI-моделі на кожному шарі підвищують швидкість декодування, щоб кожен вихідний Token отримував обчислення.

У той самий час LPX використовує повністю рідинноохолоджений дизайн і, спираючись на інфраструктуру MGX, забезпечує безшовну інтеграцію у наступну AI-фабрику Vera Rubin. Її постачання розпочнеться у другій половині цього року.

З переходом у епоху інференсу NVIDIA, окрім GPU, об’єднала нову архітектуру й значно підвищила ефективність.

На рівні технічної архітектури Groq LPU відмовився від «спекулятивного» апаратного дизайну, такого як складне керування кешами, прогнозування гілок і перестановка інструкцій. Натомість використовується детермінована конвеєрна архітектура. Такий підхід повністю виносить апаратну складність на рівень компілятора, тож потік даних на чипі відбувається як точний транспортер без будь-якого неконтрольованого тремтіння (Jitter).

У реальних сценаріях застосування стійки LPX, посилені технологіями NVIDIA, стають єдиним порятунком для «агентного AI (Agentic AI)» і «інтерактивної голосової взаємодії у реальному часі». У системах допомоги водієві або роботах для високочастотного трейдингу будь-які обчислювальні коливання на рівні мілісекунд можуть спричинити збій у рішенні. А детермінована обчислювальна потужність LPU гарантує, що час виконання завдань завжди є незмінним.

Для складних агентських ланцюгів, що потребують багатокрокового міркування або навіть сотень викликів моделей, LPU може скоротити послідовне «мислення», яке раніше займало хвилини, до кількох секунд. Це дозволяє AI вести природні, плавні розмови у реальному часі та координувати спільні дії, як людина. Щоб підтримати цю нову обчислювальну парадигму, NVIDIA безшовно інтегрує LPU-модулі у свою масштабну екосистему CUDA через технологію NVFusion. А завдяки роз’єднувальній (disaggregated) архітектурі натреновані ваги швидко перерозподіляються з GPU до масивів інференсу LPU.

За цієї здатності NVIDIA розділяє тренування і інференс, створюючи гібридну імперію обчислень: GPU відповідає за тренування моделей із трильйонами параметрів і попередню обробку довгих текстів у тилу, тоді як масиви LPU на передовій забезпечують у 10 разів кращу енергоефективність і миттєву реакцію, домінуючи на ринку інференсу у реальному часі з трильйонами параметрів. Це офіційно проголошує прихід епохи «миттєвого інференсу».

Вихід «краба» від NVIDIA: обійми епохи агентів

Паралельно NVIDIA публікує низку важливих досягнень у сфері AI-агентів (Agent), відкритих моделей і застосувань у різних галузях. Найбільшу увагу привернув випуск програмного стеку NemoClaw для спільноти OpenClaw. Нещодавно open-source-проєкт OpenClaw швидко здобув популярність серед розробників і багато хто вважає його за зародок «персональної операційної системи AI».

Дженсен Хуанг високо оцінив OpenClaw: «OpenClaw відкриває новий фронтир AI для всіх і стає найшвидше зростаючим open-source-проєктом в історії», — сказав він. «На відміну від традиційних AI-застосунків, мета OpenClaw — зробити так, щоб AI-агенти працювали безперервно як програми: вони можуть самостійно планувати завдання, викликати інструменти і виконувати складні робочі процеси».

У цьому контексті NemoClaw надає повний набір базового програмного забезпечення, що дозволяє розробникам однією командою встановлювати NVIDIA Nemotron-модель і нове середовище OpenShell, а також додавати можливості контролю безпеки і приватності для AI-агентів. Завдяки ізольованому sandbox-середовищу, яке забезпечує OpenShell, AI-агенти при доступі до інструментів і даних можуть дотримуватися встановлених правил безпеки і приватності, що підвищує ефективність і одночасно зберігає безпеку даних.

NemoClaw підтримує змішане викликанння локальних моделей і моделей у хмарі. Розробники можуть запускати Nemotron-модель на пристроях користувача і одночасно через приватний маршрут отримувати доступ до передових моделей у хмарі, зберігаючи приватність даних і отримуючи високі обчислювальні ресурси. NVIDIA заявила, що NemoClaw може працювати на різних спеціалізованих платформах, включно з ПК і ноутбуками з відеокартами GeForce RTX, робочими станціями RTX PRO, а також системами DGX Station і DGX Spark, забезпечуючи стабільну обчислювальну потужність для цілодобової роботи AI-агентів.

Паралельно з розвитком платформи для AI-агентів NVIDIA прискорює створення екосистеми відкритих моделей. На цій конференції NVIDIA оголосила про створення Nemotron Coalition (Nemotron альянс), об’єднуючи провідні AI-лабораторії і розробників моделей у світі для просування розвитку відкритих передових моделей.

Крім співпраці на рівні екосистеми, NVIDIA одночасно розширює кілька лінійок продуктів відкритих моделей для підтримки розвитку у сферах AI-агентів, фізичного інтелекту і медичних досліджень. Зокрема, моделі серії NVIDIA Nemotron 3 посилюють мультимодальне розуміння, мають версії Ultra, Omni і VoiceChat. Вони здатні одночасно обробляти мовну, візуальну і аудіоінформацію, що дозволяє AI-агентам вести природні розмови, виконувати складні логічні задачі і витягати ключову інформацію з відео і документів.

Крім цифрових AI-агентів, NVIDIA просуває штучний інтелект у реальний світ. Нові моделі включають базові моделі для роботів і систем автоматичного водіння. Наприклад, NVIDIA Isaac GR00T N1.7 — це модель візуального мовного керування для роботів, здатна підтримувати сприйняття, міркування і ухвалення рішень у реальному середовищі.

NVIDIA Alpamayo 1.5 орієнтована на сценарії автономного водіння, підвищуючи можливості транспортних засобів за допомогою навігаційних підказок, підтримки багатьох камер і налаштовуваних параметрів камер. А NVIDIA Cosmos 3, яка незабаром з’явиться, називається першою уніфікованою базовою моделлю для «генерації світу, фізичного міркування і симуляції дій», що допоможе роботам і системам автоматичного водіння проходити навчання і ухвалювати рішення у складних умовах.

Від платформи AI-агентів до екосистеми відкритих моделей і далі — до застосувань у робототехніці, автоматичному водінні і науках про життя — NVIDIA поступово створює AI-технологічну систему, що охоплює як цифровий, так і фізичний світ. Зі зростанням кількості розробників і компаній у цій екосистемі, вона, ймовірно, ще більше прискорить інновації і практичне застосування штучного інтелекту у всьому світі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити