Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Від GPU до LPU: NVIDIA активно просувається у сфері обчислювальних чипів для інференції, Дженсен Хуанг знову робить важливий хід
《华夏时报》记者 石飞月 北京报道
Напрямок розвитку індустрії ШІ змінився. У попередні роки всі безперервно «натаскували моделі» — подавали дані на GPU, чекали, доки вони виростять інтелект. Тоді GPU від NVIDIA був єдиним «королем», і зрушити його ніхто не міг. Але за ці два роки розумні агенти натовпами ринули на ринок: Manus вирвався в медійний простір, OpenClaw заполонив стрічки, виробники моделей і хмарні провайдери почали заробляти, продаючи токени. Cerebras та інші під прапорами «швидше, дешевше» почали вирізати пролом на тій карті, яку NVIDIA безроздільно займала багато років.
Галузь нарешті усвідомила: навчання ще триває, але «інференс» уже став основним. NVIDIA, природно, не упустить можливість у цьому сегменті. Щоб відрізати свій шматок від «кондитерської» для інференсу, 17 березня на світанку на GTC 2026 CEO NVIDIA Хуан Женьсунь представив нову зброю — Groq 3 LPU, розгорнувши масштабний наступ на ринок інференсних чипів. Паралельно він озвучив цифри: до кінця 2027 року річна виручка двох ліній продуктів — Blackwell і Rubin — сягне 1 трильйона доларів США, що вдвічі більше за прогноз дворічної давності.
Ухопити й навчання, й інференс
Цього разу NVIDIA офіційно представила платформу Vera Rubin, яка містить 7 типів чипів: Rubin GPU, Vera CPU, ConnectX-9 SuperNIC, BlueField-4 DPU, NVLink 6 Switch, Spectrum-X 102.4T CPO, а також новий інтегрований Groq 3 LPU.
«LPU» — це абревіатура від «Language Processing Unit», тобто блок обробки мови. Це спеціалізований чип для прискорення інференсу ШІ. Rubin GPU разом із Groq LPU збільшить пропускну здатність із нинішніх 100 токенів за секунду до 1500 токенів за секунду або навіть більше, тож ідеально підтримає сценарії взаємодії ШІ-агентів.
NVIDIA також представила повний стійковий (rack) продукт, спеціально розроблений для розміщення нових акселераторів Groq, — Groq LPX. Як розповів віцепрезидент NVIDIA із надвеликомасштабних систем і високопродуктивних обчислень Ian Buck, Groq LPX підвищить декодингову продуктивність «на кожному токені для кожного шару» AI-моделі й дозволить Rubin обслуговувати наступну передову сферу штучного інтелекту: мультиагентні системи. Цим системам потрібно забезпечувати інтерактивну продуктивність у контекстних вікнах на сотні тисяч токенів одночасно з використанням моделей із трильйонами параметрів у фазі інференсу.
Прагнення NVIDIA до ринку інференсних чипів не почалося сьогодні: до цього готувалися заздалегідь. У грудні 2025 року компанія придбала ключові технологічні активи Groq приблизно за 20 мільярдів доларів США. Її засновник приєднався до NVIDIA, а Groq 3 LPU став першим публічним результатом після цієї угоди.
Згідно з прогнозною моделлю підрозділу Global Investment Research компанії Goldman Sachs, у AI-серверах частка відвантажень чипів, які не є GPGPU, матиме чітку висхідну тенденцію: очікується, що вона зростатиме з 36% у 2024 році до 45% у 2027 році. Водночас частка відвантажень GPGPU-чипів, як очікується, поступово зменшуватиметься з 64% у 2024 році до 55% у 2027 році.
Старший аналітик InSemi Research Цінь Фен-вей пояснив журналісту: GPU у базових сценаріях навчання великих моделей і в тих, де потрібні вищі вимоги до універсальності (наприклад, у публічних хмарних сервісах), а також у паралельних обчисленнях, матимуть більше конкурентних переваг. А ASIC (включно з TPU, DPU, NPU, LPU тощо) на етапі розгортання моделей і в сценаріях інференсу відносно вигідніші, оскільки ці сценарії висувають вищі вимоги до енергоефективності, затримки відгуку тощо.
«Тож коли NVIDIA представляє LPU, це стратегічне планування у відповідь на те, як попит на обчислювальні потужності ШІ переходить із “навчання” в “інференс”. Це ключовий хід, який закриває прогалину. Вона використовує більш деталізовану продуктову розкладку, відповідаючи на зміни ринку та виклики конкурентів», — сказав журналісту директор Інституту глибоких технологічних досліджень Чжан Сяо-рон.
Як повідомляють медіа, плани NVIDIA щодо задоволення дедалі зростаючого попиту на інференс уже принесли їй віддачу: минулого місяця OpenAI заявила, що уклала угоду з NVIDIA — закуповуватиме чипи, що мають «спеціалізовані можливості інференсу».
Екосистемне оновлення — від чипів до фабрик
За останні кілька років генеративний ШІ розігнав ринок, а навчання великих моделей перетворилося на беззаперечну «чорну діру» обчислювальної потужності. Завдяки абсолютному домінуванню GPU NVIDIA забрала більшу частину вигод від цього гарячого тренду: і фінансові показники, і ринкова капіталізація злетіли одночасно, компанія заробляла щедро.
Однак коли перегони за параметрами моделей входять у період граничної (падаючої) ефективності, навчання великих моделей після двох років швидкого бігу нарешті сповільнилося. Починаючи з 2025 року вісь конкуренції почала зміщуватися — у центрі уваги опинилися агенти та робота з контекстом. Найпряміший сигнал такий: OpenClaw захопив соціальні платформи — пройшов шлях від технічного кола до «прориву» у масовий інформаційний потік, втиснувшись у стрічки звичайних людей.
Агенти є одним із ключових факторів, що стимулюють зростання попиту на інференс. Їхній центральний сценарій більше сфокусований на інференсі, а не на навчанні. Цю думку чітко підтверджують численні авторитетні дослідження та галузеві аналітики. Тож коли можливості ШІ еволюціонують від етапу навчання базових великих моделей до агентів, які зосереджуються на побудові робочих процесів, центр ваги попиту на обчислювальну потужність зміщується з навчання в інференс.
А як лідер у сфері AI-інфраструктури, NVIDIA природно має підлаштуватися під ринкові тренди, і це має бути оновлення на рівні всієї екосистеми.
На цьому GTC, окрім випуску LPU, NVIDIA також об’єднала зусилля з командою на чолі із засновником OpenClaw Peter Steinberger, зібравши низку топових експертів із безпеки та обчислень. Вони представили еталонну архітектуру NeMoClaw: вона вбудовує технологію OpenShell, механізми мережевого захисту та можливості приватної маршрутизації, що дозволяє підприємствам безпечно запускати агентні системи у власному приватному середовищі.
NVIDIA навіть представила референсний дизайн Vera Rubin DSX AI factory — майстер-клас, як проектувати, будувати та експлуатувати весь стос базової інфраструктури AI-фабрики. Він охоплює обчислення, мережі NVIDIA Spectrum-XEthernet та сховище, щоб забезпечити повторювану, масштабовану та найкращу продуктивність кластерів.
Хуан Женьсунь зазначив: «У епоху ШІ “розумні токени” — це нова валюта, а AI-фабрика — базова інфраструктура для створення цих токенів. Через референсний дизайн Vera Rubin DSX AI Factory та Omniverse DSX Blueprint (цифровий двійник) ми закладаємо основу для побудови AI-фабрик із максимальною продуктивністю у світі, прискорюємо час до першого доходу та максимізуємо масштаб і енергоефективність».
Щодо того, як зміниться частка флагманських GPU NVIDIA після запуску LPU, журналіст «华夏时报» звернувся до представників NVIDIA. Станом на момент підготовки матеріалу відповідь не надійшла. «Те, що NVIDIA виходить на ринок інференсних чипів, не означає, що бізнес GPU від цього постраждає. Навпаки — у співпраці з LPU вона відкриє для GPU ще ширший простір ринку», — сказав Чжан Сяо-рон.
Експерт, запрошений у рамках програми «智参智库», Юань Бо вказав: у короткостроковій перспективі GPU домінуватиме завдяки потужній адаптації до різних сценаріїв і “стінам” екосистеми, особливо в сценаріях навчання AI. У довшій перспективі дві лінії не є повністю протилежними: вони рухатимуться до злиття та сегментації ринку. «На “залізі” GPU інтегруватимуть сильніші спеціалізовані ядра, а спеціалізовані чипи також збільшать програмованість. На ринку, як очікується, сформується шарувата модель: інновації, які домінують у певних сегментах, і універсальні платформи — з одного боку; а спеціалізовані чипи, які масштабуються для інференсу, — з іншого».
На ринку ASIC фактично вже зібралися кілька конкурентів NVIDIA, включно із закордонними Cerebras, а також китайськими компаніями Cambrian (寒武纪), Huawei, Cambricon —燧原科技 тощо. Чжан Сяо-рон вважає, що вихід NVIDIA у сферу інференсних чипів для вітчизняних виробників є і викликом, і каталізатором: це спричинить складну ситуацію, де співіснуватимуть «витіснення» і «примус до змін». Це прискорить перезмішування гравців у галузі та технологічне оновлення.