Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
H200 — обратный отсчет роста на рынке Китая! CUDA поддерживает высокий спрос. NVIDIA ( NVDA.US ) Империя AI готова к «дополнительным выгодам»
«Супер-гегемон AI-чипов» генеральный директор NVIDIA (NVDA.US) Хуан Жэньсун заявил, что этот чиповый гигант уже запускает для клиентов на китайском рынке этап серийного производства AI-тренировочных/инференс-ускорителей H200 на архитектуре Hopper, представленной в марте 2022 года. Это также указывает на позитивный прогресс в усилиях американской чиповой компании по возвращению на крайне важный для отрасли рынок инфраструктуры AI-вычислительных мощностей Китая.
Не вызывает сомнений: если H200 действительно сможет в крупных масштабах направляться на китайский рынок, несмотря на дополнительные 25% расходов/стоимость тарифов правительства США, то на фоне того, что текущая траектория котировок NVIDIA продолжает находиться в боковом колебании, это можно назвать существенным позитивным приращением для перспектив расширения фундаментальных показателей NVIDIA. Ведь NVIDIA — будь то официальные указания по квартальным финансовым результатам или представленная в понедельник на конференции GTC «супер-AI-карта» по достижению, как минимум, 1 трлн долларов к 2027 году — не закладывала перспективы выручки от китайского рынка.
После того как Хуан Жэньсун выступил с громким докладом на конференции NVIDIA GTC и на весь мир объявил следующее поколение инфраструктуры AI-вычислений — AI-вычислительную систему на архитектуре Vera Rubin, на пресс-конференции во вторник (местное время) Хуан Жэньсун заявил, что NVIDIA получила разрешение от правительства США на продажу H200 AI-чипов «многим крупным клиентам на китайском рынке»; сейчас компания находится в процессе «перезапуска нашего крупномасштабного производства». Он подчеркнул, что эта перспектива коренным образом отличается от ситуации всего несколько недель назад.
«Наша H200-цепочка поставок заново запускается», — сказал Хуан Жэньсун во время мероприятия на ежегодной конференции NVIDIA GTC, проходившей в Сан-Хосе, штат Калифорния. Накануне, на церемонии открытия конференции GTC, генеральный директор чиповой компании Хуан Жэньсун также с большим акцентом объявил серию новых продуктов и предоставил инвесторам обновленные ориентиры по финансовому фундаменталу.
В последние годы NVIDIA продолжала прилагать усилия, чтобы восстановить продажи своих AI-чипов на китайском рынке. Поскольку правительство США уже давно вводит ограничения на экспорт чипов в Китай, тот огромный рынок, на который NVIDIA раньше опиралась, фактически почти полностью и надолго был закрыт для таких продуктов инфраструктуры AI-вычислительных мощностей.
H200 под ударом 25% тарифного давления со стороны правительства США
Однако начиная с этого года администрация Трампа уже стала разрешать NVIDIA и ее наиболее сильному конкуренту AMD (AMD.US) продавать на китайском рынке их более слабые по производительности версии AI-чипов, но это по-прежнему требует официального подтверждения разрешением правительства США и сталкивается с 25% тарифом, дополнительно взимаемым правительством США.
Правительство США разрешило экспортировать H200 NVIDIA в Китай при определенных условиях — и взимает 25% расходов/тарифов как «условие обмена». По сути, это политический компромисс: с одной стороны разрешается экспорт, а с другой — таким образом взимается доход. В сравнении с этим, такие более премиальные AI-чипы, как архитектура Blackwell и линейка AMD Instinct MI450, на уровне политики США по-прежнему считаются более чувствительными технологиями, поэтому они либо еще не входят, либо не входят в текущие рамки экспортных разрешений. Это означает, что их вообще нельзя экспортировать, а значит, к ним не применяются такие тарифные условия.
Важно отметить, что данная тарифная политика по полупроводникам в отношении NVIDIA и AMD исключает чипы, предназначенные для американских дата-центров, потребительских устройств и промышленного применения, то есть эти тарифы не распространяются на H200/MI325X, которые напрямую используются в США на месте.
На данный момент NVIDIA не включает в свои финансовые прогнозы какие-либо перспективы выручки дата-центров в рамках китайского рынка. Бизнес-направление дата-центров, являющееся в настоящее время самым ключевым сегментом NVIDIA, как раз и поставляет глобальным дата-центрам по всему миру чрезвычайно мощную инфраструктуру AI-вычислений на AI GPU архитектур H100/H200, а также Blackwell/Blackwell Ultra.
На прошломесячном телефонном разговоре по итогам деятельности компания заявила, что тогда она получила только одно предварительное разрешение от правительства США на перевозку в китайский рынок ограниченной партии AI-чипов H200. Хотя комплексная производительность H200 существенно уступает AI-чипам на архитектуре Blackwell/Blackwell Ultra, которые NVIDIA в настоящее время использует для обучения и запуска больших моделей искусственного интеллекта, этот чип по-прежнему пользуется спросом на китайском рынке в условиях санкционных ограничений — благодаря сильной эффективности AI-инференса, экосистеме CUDA, охватившей разработчиков AI по всему миру, и удобству развертывания.
Китай в прошлом занимал четверть от общей выручки NVIDIA, а сейчас — лишь очень небольшую долю. Хотя спрос в разных странах мира на AI-чипы NVIDIA по-прежнему крайне высок, несомненно, что этот азиатский рынок все же является крупнейшим в мире единым рынком полупроводников по масштабу — а значит, он критически важен для долгосрочного процветания фундаментальных показателей NVIDIA.
Еще в декабре прошлого года NVIDIA получила устное разрешение от президента США Дональда Трампа на продажу H200 части китайских клиентов, однако до сих пор эта чиповая компания не подтвердила ни одной выручки от H200 на китайском рынке на основании подобных разрешений. Кроме того, в Вашингтоне разработчики правил производства и тарифов установили ряд дополнительных барьеров, которые замедляют процесс официального утверждения, из-за чего вероятность полного восстановления продаж в условиях без санкционных ограничений остается невысокой.
По мере того как Хуан Жэньсун в своих последних заявлениях сообщил, что AI-чипы H200 в настоящее время находятся в процессе «перезапуска нашего крупномасштабного производства», возможно, в ближайшее время NVIDIA подтвердит данные о выручке от H200 с китайского рынка.
Ранее СМИ сообщали, что AI-чипы H200, отправляемые в китайский рынок, должны проходить дополнительные регулярные проверки со стороны США и облагаются тарифом в размере целых 25%. Чиновники правительства США также рассматривают ограничение количества AI-чипов H200, которое каждая китайская компания может купить, до 75,000 штук; при этом общий объем отгрузок может достигать максимум 1,000,000 процессоров.
Спрос китайского рынка на AI-чипы H200 сам по себе, вероятно, крайне силен; ключевое ограничение сделки заключается не в спросе, а в политике и процедурах утверждения со стороны правительства США. Недавно СМИ сообщали, что фактический объем заказов китайских технологических компаний на AI-чипы H200, на которые они опираются с 2026 года, уже превысил 2,000,000 штук, тогда как запасы NVIDIA на тот момент составляли лишь около 700,000 чипов H200.
Китайский рынок — крупный позитивный прираст для NVIDIA
Во вторник акции NVIDIA на закрытии торговой сессии на рынке США снизились на 0.7% до 181.93 доллара, из-за чего с начала года эта бумага упала суммарно на 2.5%, обогнав индекс S&P 500.
С точки зрения ожиданий по фундаментальным показателям: если AI-чипы H200 действительно смогут в относительно крупных масштабах направляться на китайский рынок, то для NVIDIA это будет существенное приращение позитивных факторов, ведь Китай раньше обеспечивал NVIDIA примерно четверть выручки, но сейчас приходится лишь на небольшую часть. Кроме того, в сильных прогнозах по результатам текущего квартала, которые NVIDIA дала в феврале, не учтены никакие перспективы выручки китайских дата-центров, и в недавних ожиданиях компании по выручке китайских дата-центров показатель по-прежнему равен нулю. Это означает, что как только отгрузки H200 начнут нормализоваться, даже если не будет полностью снято ограничение, это сформирует пространство для позитивной корректировки оценочной модели NVIDIA и рыночных ожиданий роста на уровне приращения.
С точки зрения базовой общей производительности: H200 по сравнению с текущими Blackwell, особенно с Vera Rubin, которую Хуан Жэньсун только что объявил к серийному производству к концу года, безусловно уже заметно отстает как минимум на одно поколение, а возможно и на два. H200 относится к классической архитектуре Hopper; спецификация одного чипа — 141GB HBM3e, пропускная способность 4.8TB/s, около 4 PFLOPS FP8. При этом NVIDIA официально уже продемонстрировала, что GB200 NVL72 по сравнению с Hopper H200 в некоторых сценариях вывода (inferеns) может дать преимущество по производительности/выручке до 15 раз. В дополнение к этому, по официальным данным Vera Rubin обеспечивает 10-кратное улучшение производительности на ватт и 10-кратное снижение стоимости токена по сравнению с Blackwell. Но, похоже, это не мешает H200 соответствовать реальным потребностям китайского рынка, который сейчас находится под санкционными ограничениями.
Производительность H200 примерно в 6 раз выше, чем у AI-чипа H20, который NVIDIA ранее специально выпускала для китайского рынка. На волне глобального бума AI-инференса предприятиям на самом деле нужны готовые к немедленному развертыванию чипы, способные запускать инференс больших моделей, с более крупной памятью и большей пропускной способностью.
На стороне AI-тренировок, где AI GPU почти монопольно доминируют, требуется более мощная универсальность AI-вычислительных кластеров и быстрые итерации всей системы вычислительных мощностей. На стороне AI-инференса после масштабного внедрения передовых AI-технологий больше внимания уделяется стоимости токена, задержке и энергоэффективности. «Эпоха AI-инференса уже наступила», — сказал Хуан Жэньсун в понедельник на конференции GTC. «И спрос на инференс продолжает расти», — добавил он.
Поэтому 141GB HBM3e в H200, оставаясь весьма привлекательным для long context, крупных батчей, retrieval-augmented и для предприятий, разворачивающих массовые и высокоэффективные AI-инференс-кластеры, плюс сильная мотивация спроса, создаваемая экосистемой CUDA, для китайского рынка все равно является «доступной высококлассной вычислительной мощностью при ограниченных условиях». При этом CUDA, CUDA-X, адаптация готовых моделей, инструментарий для разработки и опыт эксплуатации заметно снижают затраты китайских клиентов на миграцию и внедрение.
Для фондов Уолл-стрит это не «грандиозная история, как NVIDIA разворачивает ситуацию за счет китайского рынка», а скорее то, что поверх и без того сильной мировой основной линии инвестиций в инфраструктуру AI-вычислительных мощностей у NVIDIA появляется дополнительный, возможно сильно недооцененный потенциал роста спроса со стороны китайского рынка.
На конференции GTC, прошедшей в ранние часы 17 марта по пекинскому времени, генеральный директор NVIDIA Хуан Жэньсун продемонстрировал «невиданный ранее супер-график по созданию выручки от AI-вычислительных мощностей» в сфере инфраструктуры AI-вычислений. Он сообщил глобальным инвесторам, что благодаря сильному спросу на вычислительные мощности GPU на архитектуре Blackwell и еще более взрывному сильному спросу на AI-вычислительную систему на архитектуре Vera Rubin, серийное производство которой должно начаться в ближайшее время, будущий масштаб его выручки в сфере AI-чипов к 2027 году, как минимум, может достичь 1 трлн долларов — что намного выше «карты инфраструктуры AI-вычислительных мощностей» на 5000 млрд долларов к 2026 году, озвученной на предыдущей конференции GTC.
Когда рост потребления вычислительных мощностей экспоненциально расширяется из-за масштаба моделей, инференс-цепочек и много модальных/агентных рабочих нагрузок Agentic AI, технологические гиганты в своей основной линии капитальных затрат больше склоняются к концентрации на инфраструктуре AI-вычислений. Глобальные инвесторы также продолжают фокусироваться на «бычьем нарративе по AI», который строится вокруг ожиданий поставок кластеров AI-вычислительных мощностей и обновлений у NVIDIA, Google TPU и AMD, рассматривая его как одну из самых определенных инвестиционных сюжетных линий для конъюнктуры на мировых фондовых рынках. Это также означает, что инвестиционные темы, напрямую связанные с AI-тренировками/инференсом — такие как электроэнергия, системы жидкостного охлаждения и цепочки поставок оптических взаимосвязей (optical interconnects) — продолжат оставаться в числе самых горячих направлений рынка акций, даже когда лидеры в области AI-вычислительных мощностей, такие как NVIDIA, AMD и Broadcom, TSMC, Micron, сталкиваются с неопределенностью в условиях геополитической обстановки на Ближнем Востоке.
По мнению гигантов Уолл-стрит — Morgan Stanley, Citigroup, Loop Capital и Wedbush — глобальная инвестиционная волна в искусственный интеллект, в центре которой лежит AI-инфраструктура с AI-вычислительным оборудованием, далека от завершения. Сейчас это только начало. Под влиянием прежде невиданной «бури спроса на вычислительные мощности на стороне AI-инференса» масштаб всей этой глобальной волны инвестиций в AI-инфраструктуру, которая, как ожидается, продлится до 2030 года, может составить до 3 трлн–4 трлн долларов.