H200 очікування зростання на китайському ринку! CUDA підтримує високий попит. NVIDIA(NVDA.US)Імперія AI зустрічає «зростаючі позитиви»

«Надпотужний супер-лідeр AI-чипів» — генеральний директор Nvidia (NVDA.US) Дженсен Хуанг заявив, що цей чиповий гігант розпочинає кроки до серійного виробництва прискорювачів для тренування/виведення (AI training/inference) H200 на базі архітектури Hopper, яку було представлено 2022 року березня, для клієнтів на китайському ринку. Це також свідчить про позитивний прогрес у прагненні американської чипової компанії повернутися на один із найкритичніших ринків базової AI-обчислювальної інфраструктури.

Незаперечно, що якщо H200 справді зможе вийти на китайський ринок у значно більших обсягах, попри додаткові 25% витрат/вартість мита уряду США, то на тлі того, що нинішня динаміка акцій Nvidia продовжує горизонтальне бокове коливання, це можна назвати суттєвим позитивним додатковим чинником для перспектив розширення фундаментальних показників Nvidia. Адже Nvidia — як у її офіційних щоквартальних орієнтирах щодо прибутків, так і в «супер-AI-блаупринті» щонайменше на трильйони доларів США до 2027 року, який компанія щойно оголосила на понеділку на конференції GTC, — не враховувала перспективу створення доходів на китайському ринку.

Після того як Дженсен Хуанг виступив із ключовою доповіддю на конференції Nvidia GTC і публічно, з великим резонансом, оголосив наступну генерацію AI-обчислювальної інфраструктури — AI-обчислювальну систему на архітектурі Vera Rubin — на пресконференції в місцевий час у вівторок Хуанг заявив, що Nvidia отримала дозвіл від уряду США на продаж H200 AI-чипів «багатьом великим клієнтам на китайському ринку» і що наразі компанія перебуває у процесі «перезапуску нашого великомасштабного виробництва». Він підкреслив, що ця перспектива радикально відрізняється від кількох тижнів тому.

«Наша H200-ланцюжок постачання перезапускається», — сказав Хуанг під час події в межах щорічної конференції Nvidia GTC, що проходила в Сан-Хосе в Каліфорнії. Генеральний директор чипової компанії Хуанг напередодні на відкривальній промові на конференції GTC зробив гучне оголошення про низку нових продуктів і надав інвесторам оновлення-орієнтири на рівні фінансових фундаментальних показників.

Останніми роками Nvidia докладала зусиль, щоб відновити продажі своїх AI-чипів на китайському ринку. Через те, що уряд США довгий час застосовував обмеження на експорт чипів до Китаю, цей величезний ринок, від якого Nvidia раніше значною мірою залежала, фактично майже повністю був закритий на довгострокову перспективу для таких продуктів AI-обчислювальної інфраструктури.

H200 під тиском 25% експортного мита від уряду США

Втім, починаючи з цього року адміністрація Трампа вже дозволила Nvidia та її найсильнішому конкуренту AMD (AMD.US) продавати на китайський ринок свої слабші за продуктивністю версії AI-чипів, але для цього все одно потрібен офіційний дозвіл від уряду США, і при цьому застосовується 25% мито, яке додатково стягує уряд США.

Уряд США дозволив експортувати H200 від Nvidia до Китаю за певних умов — і як «умову взаємного обміну» встановив 25% плату/мито. Насправді це стало політичним компромісом: з одного боку — дозволити експорт, а з іншого — отримати з цього прибуток. Натомість такі більш «верхівкові» AI-чипи, як продукти серії Blackwell, а також лінійка AMD Instinct MI450, на рівні політики США досі розглядаються як більш чутливі технології; тому їх або не було, або вони не входять до чинної сфери експортних дозволів. Це означає, що їх узагалі не дозволяють експортувати, тож і не поширюється на них така політика мита.

Важливо також зазначити, що ця напівпровідникова тарифна політика для Nvidia та AMD виключає чипи, призначені для дата-центрів США, споживчих пристроїв та промислового використання — тобто ці мита не застосовуються до H200/MI325X, які безпосередньо запускаються для роботи в Сполучених Штатах.

Наразі Nvidia не включила жодних перспектив доходів від типів дата-центрів на китайському ринку до своїх фінансових прогнозів. Відділ бізнесу дата-центрів — нині найключовіший напрям у Nvidia — саме він забезпечує глобальні дата-центри надпотужною AI-обчислювальною інфраструктурою за допомогою AI GPU H100/H200 та Blackwell/Blackwell Ultra.

На минулій місяць компанія вказувала в розмові з інвесторами телефоном, що тоді вона отримала лише одну попередню ліцензію на доставку до Китаю невеликої кількості AI-чипів H200. Хоча комплексна продуктивність H200 далеко поступається AI-чипам на архітектурах Blackwell/Blackwell Ultra, які Nvidia нині використовує для тренування та запуску великих моделей штучного інтелекту, він усе ж користувався попитом на китайському ринку, попри санкційні обмеження, завдяки сильним можливостям AI-виведення, екосистемі CUDA, яка охоплює розробників у всьому світі, та зручностям у розгортанні.

Раніше Китай займав чверть від загальної виручки Nvidia, а зараз — лише дуже малу її частку. Хоча попит у різних країнах світу на AI-чипи Nvidia залишається надзвичайно сильним, безсумнівно, що ця азійська країна все ще є найбільшим за масштабом єдиним ринком напівпровідників у світі, і це робить її критично важливою для процвітання довгострокових базових показників Nvidia.

Ще в грудні минулого року Nvidia отримала усне схвалення від президента США Дональда Трампа на продаж H200 частині китайських клієнтів, але до цього часу компанія не підтвердила жодних надходжень H200 від китайського ринку за рахунок таких дозволів. Ті, хто у Вашингтоні відповідають за правила виробництва та тарифів, також встановили низку додаткових бар’єрів, що уповільнюють офіційний процес затвердження, і це зменшує ймовірність того, що продажі повністю відновляться без санкційних обмежень.

Оскільки Дженсен Хуанг у своїй останній заяві зазначив, що AI-чипи H200 наразі перебувають у процесі «перезапуску нашого великомасштабного виробництва», можливо, незабаром Nvidia підтвердить дані про дохід від H200 з китайського ринку.

Раніше ЗМІ повідомляли, що AI-чипи H200, які відправляють на китайський ринок, мають проходити додаткові регулярні перевірки в США та підлягають стягненню повного 25% мита. Офіційні представники уряду США також розглядають обмеження кількості AI-чипів H200, які кожен китайський клієнт може придбати, до 75,000 чипів, а загальний обсяг відвантажень може бути максимум до 1,000,000 процесорів.

Попит китайського ринку на AI-чипи H200, імовірно, сам по собі є дуже сильним; ключовим обмеженням угод є не попит, а політика уряду США та процеси затвердження. Раніше ЗМІ вже повідомляли, що реальний обсяг замовлень на AI-чипи H200, від яких китайські технологічні компанії залежатимуть з 2026 року, перевищив 2,000,000 чипів, тоді як у Nvidia на той момент було лише близько 700,000 чипів H200 на складі.

Китайський ринок — значний позитивний додатковий драйвер для Nvidia

У вівторок акції Nvidia станом на закриття торгів у США знизилися на 0.7%, до 181.93 долара. Це означає, що з початку року акції цього емітента сумарно впали на 2.5%, поступившись індексу S&P 500.

З погляду очікувань щодо фундаментальних показників, якщо AI-чипи H200 справді зможуть прийти на китайський ринок у відносно великих обсягах, то для Nvidia це може бути суттєвий позитивний додатковий чинник. Адже Китай раніше формував близько чверті виручки Nvidia, але зараз — лише дуже маленьку її частку. Крім того, сильні орієнтири щодо результатів поточного кварталу, які Nvidia озвучила у лютому, не враховували жодних перспектив доходів від китайських дата-центрів, і нещодавній прогноз цієї компанії щодо виручки від китайських дата-центрів досі дорівнює нулю. Це означає, що за умови початку нормалізації відвантажень H200 навіть без повного відкриття ринку, це створить потенціал для підвищення оцінки нинішньої моделі valuation Nvidia та очікувань ринку щодо зростання на додатковому рівні.

З точки зору базової узагальненої продуктивності, H200 порівняно з поточними Blackwell, а особливо з Vera Rubin, про масове виробництво якої Дженсен Хуанг щойно оголосив до кінця року, вже очевидно відстає на одне або навіть на два покоління. H200 належить до класичної архітектури Hopper; специфікація одного чіпа — 141GB HBM3e, ширина пропускання 4.8TB/s, приблизно 4 PFLOPS FP8. Водночас офіційно Nvidia вже продемонструвала, що GB200 NVL72 порівняно з Hopper H200 у деяких сценаріях виведення може забезпечити до 15 разів переваги щодо продуктивності/можливостей доходу. Далі офіційна позиція щодо Vera Rubin полягає в тому, що відносно Blackwell досягається 10 разів підвищення продуктивності на ват, а також 10 разів нижча вартість token. Але це, схоже, не заважає H200 відповідати реальним потребам нинішнього китайського ринку, обмеженого санкціями.

Продуктивність H200 приблизно у 6 разів вища, ніж у попереднього AI-чипа Nvidia, спеціально розробленого для китайського ринку — H20. У хвилі глобального AI-виведення, яка набирає масштабів, підприємствам насправді потрібна зріла серія чипів, які можна негайно розгорнути, які можуть запускати виведення великих моделей AI, а також забезпечують більшу ємність пам’яті та вищу пропускну здатність.

Сторона AI-тренування, яку майже монополізують AI GPU Nvidia, потребує більшої «універсальності» AI-обчислювальних кластерів та швидкої ітерації в усій системі обчислювальної потужності. Натомість сторона AI-виведення після масштабного впровадження передових AI-технологій у більшій мірі звертає увагу на вартість одного token, затримку та енергоефективність. «Епоха AI-виведення вже настала», — сказав Дженсен Хуанг у понеділок на конференції GTC. «І попит на виведення продовжує зростати», — додав він.

Тому 141GB HBM3e в H200 для довгих контекстів, великих batch-ів, retrieval augmented generation та великих за масштабом і високоефективних кластерів AI-виведення як і раніше залишається дуже привабливим. Додатково, завдяки сильному попиту, який створює екосистема CUDA, для китайського ринку це все ще є «висококласними доступними обчислювальними потужностями за умов обмежень». Паралельно ж CUDA, CUDA-X, адаптація наявних моделей, інструментарій розробки та досвід з експлуатації помітно знижують для китайських клієнтів витрати на міграцію та впровадження.

Для інституційного капіталу Волл-стріт це не «велика історія про те, як Nvidia перевертає ситуацію завдяки китайському ринку», а радше те, що в межах вже й так дуже потужної глобальної «основної лінії» інвестицій в AI-обчислювальну інфраструктуру Nvidia додатково отримує ще один висхідний сегмент попиту на китайському ринку, який, імовірно, буде суттєво недооцінений.

На конференції GTC, що відбулася в ніч на 17 березня за пекинським часом, генеральний директор Nvidia Дженсен Хуанг продемонстрував «безпрецедентну» супер-мрію Nvidia щодо монетизації AI-обчислювальної інфраструктури у сфері AI-«заробітку». Він повідомив глобальним інвесторам, що завдяки сильному попиту на AI-обчислювальні потужності GPU на архітектурі Blackwell і ще більш вибуховому попиту, який спричинить система AI-обчислювальних потужностей на архітектурі Vera Rubin, яку незабаром почнуть масово виробляти, майбутній обсяг виручки Nvidia в сегменті AI-чипів до 2027 року може щонайменше досягти 1 трильйона доларів США. Це значно перевищує «AI-блаупринт» для AI-обчислювальної інфраструктури на 2026 рік до рівня 5000 мільярдів доларів США, який був озвучений на попередній конференції GTC.

Коли масштаби моделей, ланцюжки виведення та мультимодальні/агентні (Agentic) AI-навантаження розширюють споживання обчислювальної потужності експоненційно, техногіганти більш схильні спрямовувати основні капітальні витрати у бік AI-обчислювальної інфраструктури. Глобальні інвестори також продовжують «історію про AI-бичачий ринок» навколо очікувань поставок і нових ітерацій AI-обчислювальних кластерів від Nvidia, кластерів Google TPU та новинок AMD, вбачаючи це як одну з найбільш визначених інвестиційних тем у глобальному фондовому ринку для сприятливого інвестування. Водночас це також означає, що інвестиційні теми, тісно пов’язані з AI-тренуванням/виведенням — електроенергія, системи рідинного охолодження (liquid cooling), оптоелектронні/оптичні міжз’єднання тощо — будуть і надалі залишатися в переліку найбільш «гарячих» інвестиційних напрямів на фондовому ринку, навіть тоді, коли лідери в AI-обчислювальних потужностях на кшталт Nvidia, AMD та Broadcom, TSMC, Micron зіткнуться з невизначеністю через геополітичну ситуацію на Близькому Сході.

На думку гігантів Волл-стріт Morgan Stanley, Citigroup, Loop Capital та Wedbush, глобальна хвиля інвестицій у штучний інтелект — з AI-«залізом» у центрі — ще далеко не завершена; зараз це лише початок. Підштовхнута «бурею попиту на обчислювальні потужності на стороні AI-виведення» у небачених раніше масштабах, ця хвиля загальних глобальних інвестицій в AI-інфраструктуру, що триватиме до 2030 року, має потенціал досягти масштабу 3 трильйони до 4 трильйонів доларів США.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити