Китайська боротьба за обчислювальні потужності штучного інтелекту

Китайська боротьба за AI-обчислювальні потужності

Вісім років тому серце ZTE зупинилося.

16 квітня 2018 року наказ Міністерства торгівлі США, Бюро промисловості та безпеки, змусив ZTE, компанію з 80 тисячами працівників і річним доходом понад тисячу мільярдів юанів, зупинити діяльність за одну ніч. Зміст наказу був простим: протягом наступних семи років заборонити будь-яким американським компаніям продавати ZTE компоненти, товари, програмне забезпечення та технології.

Без чіпів Qualcomm, базові станції припинили виробництво. Без ліцензії Android від Google, смартфони стали беззмістовними. Через 23 дні ZTE опублікувала заяву, що основна діяльність компанії стала неможливою.

Однак ZTE все ж вижила, заплативши ціну у 1,4 мільярда доларів.

Платіж у 1 мільярд доларів був здійснений одразу; гарантійний депозит у 400 мільйонів доларів був внесений на управлінський рахунок у американському банку. Крім того, всі керівники були змінені, і команда з американського боку увійшла під контроль для контролю відповідності. У 2018 році чистий збиток ZTE склав 7 мільярдів юанів, а доходи впали на 21,4% у порівнянні з попереднім роком.

Тодішній голова ZTE Янь Імін у внутрішньому листі писав: «Ми знаходимося в складній галузі, яка дуже залежить від глобальних ланцюгів постачання». Ці слова тоді звучали як роздуми і водночас як безвихідь.

Вісім років потому, 26 лютого 2026 року, китайський AI-єдиноріг DeepSeek оголосив, що його майбутня мультимодальна модель V4, буде пріоритетно тісно співпрацювати з вітчизняними виробниками чіпів, вперше реалізуючи повний процес від попереднього навчання до тонкого налаштування без використання NVIDIA.

Інакше кажучи: нам більше не потрібен NVIDIA.

Після цієї новини перша реакція ринку була скептичною. NVIDIA контролює понад 90% світового ринку тренувальних чіпів для AI. Відмовитися від неї — це цілком логічно з комерційної точки зору?

Але за вибором DeepSeek приховано щось більше, ніж просто бізнес-логіка: яку саме незалежність у обчислювальних потужностях потребує китайський AI?

Що саме заважає?

Багато хто вважає, що заборона на чіпи блокує саме апаратне забезпечення. Але справжній гальмівний фактор для китайських AI-компаній — це щось під назвою CUDA.

CUDA, або Compute Unified Device Architecture, — це платформа для паралельних обчислень і модель програмування, запроваджена NVIDIA у 2006 році. Вона дозволяє розробникам безпосередньо використовувати обчислювальні можливості GPU NVIDIA для прискорення складних обчислювальних задач.

До приходу епохи AI це був інструмент для невеликої кількості технарів. Але коли прийшла хвиля глибокого навчання, CUDA стала основою всієї індустрії AI.

Навчання великих моделей — це в основному масивні матричні обчислення. А саме цим найкраще володіє GPU.

Завдяки довгостроковому плануванню ще з початку 2010-х, NVIDIA за допомогою CUDA створила повний інструментарій для AI-розробників — від апаратного забезпечення до високорівневих застосунків. Сьогодні всі провідні фреймворки для AI, від TensorFlow від Google до PyTorch від Meta, глибоко інтегровані з CUDA.

Доктор наук у галузі AI, з перших днів навчання, працює у середовищі CUDA — навчається, програмує, проводить експерименти. Кожен рядок коду зміцнює позиції NVIDIA.

До 2025 року екосистема CUDA налічує понад 4,5 мільйони розробників, охоплює понад 3000 застосунків із прискоренням на GPU, понад 40 тисяч компаній у світі використовують CUDA. Це означає, що понад 90% світових AI-розробників працюють у цій екосистемі.

CUDA — це «фронтальний флюгер». Чим більше розробників його використовує, тим більше інструментів, бібліотек і коду з’являється. Екосистема зростає, залучаючи ще більше нових учасників. Як тільки цей «флюгер» починає обертатися, його вже важко зупинити.

Результат — NVIDIA продає найдорожчі лопати і визначає єдину правильну позу для майнінгу. Хочеш змінити лопату? Можна. Але тоді доведеться заново переписати весь досвід, інструменти і код, накопичені за десятиліття глобальними інтелектуальними елітами.

Хто заплатить цю ціну?

Коли 7 жовтня 2022 року перша хвиля обмежень BIS запровадила заборону на експорт A100 і H100 до Китаю, китайські AI-компанії вперше відчули себе у стані «ZTE». Після цього NVIDIA випустила «спеціальну для Китаю» версію A800 і H800, зменшивши пропускну здатність між чіпами, щоб хоч якось підтримати поставки.

Але вже через рік, 17 жовтня 2023 року, друга хвиля обмежень посилила заборони, і A800 з H800 були заборонені, 13 китайських компаній потрапили до списку санкцій. NVIDIA була змушена випустити ще більш урізану версію H20. До грудня 2024 року, коли закінчився термін дії останніх обмежень за адміністрацією Байдена, експорт H20 був суворо обмежений.

Три етапи обмежень — і кожен раз все жорсткіше.

Але цього разу сценарій зовсім інший, ніж у випадку з ZTE.

Несиметричний прорив

Під час заборон всі думали, що мрія китайського AI про великі моделі згорить у полум’ї.

Вони помилялися. В умовах блокади китайські компанії не пішли у відкритий конфлікт, а почали шлях до прориву. Перша битва — не у чіпах, а у алгоритмах.

Наприкінці 2024 — 2025 років китайські AI-компанії масово переключилися на один технологічний напрям: гібридні експертні моделі.

Простими словами, це розбиття великої моделі на багато маленьких експертів, які активуються лише при виконанні конкретних завдань, а не всією моделлю одночасно.

V3 від DeepSeek — яскравий приклад цієї ідеї. Вона має 671 мільярд параметрів, але при кожному запиті активує лише 37 мільярдів, що становить всього 5,5% від загальної кількості. Вартість тренування — 58 днів із використанням 2048 GPU NVIDIA H800, загальні витрати — 5,576 мільйонів доларів. Для порівняння, оцінки вартості тренування GPT-4 — близько 78 мільйонів доларів. Різниця у порядках.

Оптимізація алгоритмів до межі безпосередньо позначилася на ціні. API DeepSeek коштує від 0,028 до 0,28 долара за мільйон токенів на вхід, 0,42 долара — на вихід. Для порівняння, GPT-4 — 5 доларів за вхід і 15 доларів за вихід. Claude Opus — ще дорожчий: 15 і 75 доларів відповідно. У підсумку, DeepSeek у 25–75 разів дешевший за Claude.

Ця різниця у ціні викликала великий резонанс серед глобальних розробників. У лютому 2026 року на платформі OpenRouter, найбільшому агрегаторі AI-моделей, кількість запитів до китайських моделей за три тижні зросла на 127%, вперше обігнавши США. Рік тому частка китайських моделей на цій платформі становила менше 2%. Через рік вона зросла на 421% і майже до 60%.

За цими цифрами стоїть важлива структурна зміна: з другої половини 2025 року основні сценарії застосування AI змістилися з чатів у напрямку агентів. У сценаріях агентів один запит споживає у 10–100 разів більше токенів, ніж простий чат. При такому зростанні витрат на токени ціна стає ключовим фактором. Витрати на інфраструктуру китайських моделей, з їхньою високою співвідношенням ціна/якість, саме в цей момент стали вирішальними.

Але зниження вартості обчислень не вирішує головну проблему тренування. Велика модель, яка не може постійно оновлюватися і тренуватися на нових даних, швидко втрачає свої можливості. А тренування — це все ще чорна діра у обчислювальних потужностях.

Тоді звідки взяти «лопату» для тренування?

Пробний варіант стає основним

Містечко Сіньхуа у провінції Цзянсу, невелике містечко в центральній частині країни, раніше не мало нічого спільного з AI. Але у 2025 році тут запустили виробництво повністю вітчизняної лінії з виробництва обчислювальних серверів довжиною 148 метрів — всього за 180 днів від укладення контракту до запуску.

Головний компонент — два цілком вітчизняні чіпи: процесор Лонгчін 3C6000 і прискорювач Тайчу Юань Ці T100. Лонгчін 3C6000 розроблений з нуля — від архітектури команд до мікроархітектури. Тайчу Юань Ці — це продукт колаборації з Національним центром суперкомп’ютерів у Цзіньхуахе та командою Тяньцзинського університету, з гібридною архітектурою з багатьма ядрами.

При повному завантаженні ця лінія може виробляти один сервер кожні 5 хвилин. Загальні інвестиції — 1,1 мільярда юанів, плановий річний обсяг — 100 тисяч серверів.

Ще важливіше — на базі цих вітчизняних чіпів створено кластер з десяти тисяч графічних процесорів, який вже починає виконувати справжні завдання з тренування великих моделей.

У січні 2026 року компанія Zhipu AI у співпраці з Huawei представила GLM-Image — першу у світі модель для генерації зображень, повністю треновану на вітчизняних чіпах. У лютому китайський телеком-гігант China Telecom завершив тренування своєї масштабної моделі «Xingchen» у місті Шанхай, використовуючи внутрішній кластер з тисячі вітчизняних GPU.

Ці приклади доводять одне: вітчизняні чіпи вже перейшли від можливості лише для inference до здатності тренувати. Це якісна зміна. Для inference потрібно запускати вже навчену модель — вимоги до апаратного забезпечення нижчі. Для тренування потрібно обробляти величезні обсяги даних, виконувати складні обчислення градієнтів і оновлювати параметри — і тут вимоги до обчислювальної потужності, пропускної здатності і програмної екосистеми зростають у рази.

Головний гравець у цій сфері — чіпи серії Ascend від Huawei. До кінця 2025 року кількість розробників у екосистемі Ascend перевищила 4 мільйони, понад 3000 партнерів, 43 провідні великі моделі були попередньо навчені на Ascend, понад 200 — адаптовані до цієї платформи. На MWC 2026 2 березня Huawei презентувала нову платформу обчислювальної потужності SuperPoD для міжнародного ринку.

FP16-потужність Ascend 910B вже порівнюється з NVIDIA A100. Хоча ще є різниця, вона вже стала доступною і зручною у використанні. Створення екосистеми не можна чекати, поки чіпи стануть ідеальними — потрібно починати масштабне впровадження вже на етапі достатньої продуктивності, щоб реальні бізнес-завдання стимулювали подальший розвиток апаратного і програмного забезпечення. Компанії ByteDance, Tencent, Baidu планують у 2026 році подвоїти обсяги впровадження вітчизняних серверів. За даними Мінпромторгу, обсяг китайських інтелектуальних обчислень уже досяг 1590 EFLOPS. 2026 рік стає роком масштабного розгортання вітчизняних обчислювальних потужностей.

Американська енергетична криза і вихід на світовий ринок

На початку 2026 року штат Вірджинія, що обробляє значну частину світового трафіку дата-центрів, припинив затвердження нових проектів з будівництва. Пізніше до нього приєдналися Джорджія, Іллінойс і Мічиган, які також запровадили обмеження.

За даними Міжнародного енергетичного агентства, у 2024 році енергоспоживання дата-центрів у США склало 183 ТВт-год, що приблизно 4% від загального споживання країни. До 2030 року ця цифра, за прогнозами, подвоїться до 426 ТВт-год, а частка може перевищити 12%. Генеральний директор Arm прогнозує, що до 2030 року AI-даний центри споживатимуть 20–25% електроенергії США.

Енергетична мережа США вже не справляється. Мережа PJM, що охоплює 13 штатів на сході країни, має дефіцит потужності у 6 ГВт. До 2033 року загальний дефіцит електроенергії в США сягне 175 ГВт, що еквівалентно споживанню 130 мільйонів домогосподарств. Вартість оптової електроенергії у зонах концентрації дата-центрів зросла на 267% порівняно з п’ятьма роками раніше.

Межа обчислювальних потужностей — це енергія. А у цьому вимірі різниця між Китаєм і США більша, ніж у чіпах, тільки напрямки протилежні.

Річне виробництво електроенергії в Китаї становить 10,4 трильйона кіловат-годин, у США — 4,2 трильйона. Китай у 2,5 рази перевищує США. Ще важливіше, що споживання електроенергії для побутових потреб у Китаї становить лише 15% від загального, тоді як у США — 36%. Це означає, що у Китаї є набагато більше промислових резервів для інвестицій у обчислювальні потужності.

Що стосується цін на електроенергію, то у США у регіонах AI-компаній вона коливається від 0,12 до 0,15 долара за кіловат-годину, тоді як у західних регіонах Китаю — близько 0,03 долара, що у 4–5 разів дешевше.

Зростання виробництва електроенергії у Китаї вже у 7 разів перевищує американські показники.

Поки США борються з енергетичною кризою, Китай тихо виходить на світовий ринок AI. Але цього разу йдеться не про продукти чи фабрики, а про Token.

Token — це мінімальна одиниця обробки інформації у AI-моделі, і стає новим цифровим товаром. Він виробляється у китайських обчислювальних фабриках і транспортується через морські кабелі по всьому світу.

Дані про розподіл користувачів DeepSeek добре ілюструють цю тенденцію: 30,7% користувачів — у Китаї, 13,6% — у Індії, 6,9% — в Індонезії, 4,3% — у США, 3,2% — у Франції. Підтримує 37 мов і популярний у нових ринках, таких як Бразилія. Усього понад 26 тисяч компаній відкрили акаунти, 3200 організацій розгорнули корпоративну версію.

У 2025 році 58% нових AI-стартапів інтегрували DeepSeek у свої технологічні стеки. У Китаї DeepSeek займає 89% ринку. У країнах із санкціями частка коливається від 40% до 60%.

Ця картина дуже нагадує іншу війну за незалежність індустрії, що відбувалася сорок років тому.

У 1986 році в Токіо, під тиском США, японський уряд підписав «Договір США-Японія щодо напівпровідників». Основні пункти договору: відкриття японського ринку напівпровідників, частка американських чіпів у Японії має становити понад 20%; заборона на експорт напівпровідників за ціною нижче собівартості; введення 100% мит на японські чіпи вартістю 300 мільйонів доларів. Також США відхилили покупку компанії Fujitsu у компанії Fairchild Semiconductor.

Тоді японська індустрія напівпровідників була на піку. У 1988 році Японія контролювала 51% світового ринку напівпровідників, США — 36,8%. У топ-10 світових компаній у цій галузі — шість японських: NEC, Toshiba, Hitachi, Fujitsu, Mitsubishi, Panasonic. У 1985 році Intel зазнала збитків у 173 мільйони доларів у боротьбі з японськими конкурентами і ледве не збанкрутувала.

Але після підписання договору все змінилося.

США через розслідування 301 і інші заходи почали повномасштабний тиск на японські компанії. Паралельно підтримували корейські Samsung і Hynix, які за нижчими цінами атакували японський ринок. Частка японських DRAM знизилася з 80% до 10%. У 2017 році японський ринок IC становив лише 7%. Колишні гіганти або були розділені, або куплені, або залишили галузь у безнадійних збитках.

Горе японських напівпровідників у тому, що вони задовольнялися роллю найкращого виробника у глобальній системі, де домінували зовнішні сили, і ніколи не намагалися створити власну незалежну екосистему. Коли потік зупинився, вони зрозуміли, що крім виробництва — нічого не залишилося.

Сьогодні китайська AI-індустрія стоїть на подібному, але зовсім іншому перехресті.

Загалом схоже, що ми також стикаємося з великим зовнішнім тиском. Три хвилі контролю за чіпами, посилення обмежень, високий бар’єр CUDA — все ще на місці.

Але цього разу ми обрали більш складний шлях. Від максимальної оптимізації алгоритмів, через перехід від inference до тренування на вітчизняних чіпах, до накопичення 400 тисяч розробників у екосистемі Ascend і проникнення Token на глобальні ринки. Кожен крок цієї дороги сприяє створенню незалежної індустріальної екосистеми, якої японці ніколи не мали.

Фінал

27 лютого 2026 року три звіти про результати роботи вітчизняних компаній з виробництва AI-чіпів були оприлюднені одночасно.

Cambricon — з рекордним зростанням доходів на 453%, вперше вийшла на прибуток за рік. Moore Threads — зростання доходів на 243%, але чистий збиток склав 1 мільярд доларів. MuXi — зростання доходів на 121%, збитки майже 800 мільйонів.

Половина — це полум’я, половина — море.

Полум’я — це неймовірна жага ринку. Порожнеча, яку залишив у 95% своїх сегментів Дженсен Хуанг, заповнюється цими доходами. Незалежно від продуктивності і екосистеми, ринок потребує другого вибору після NVIDIA. Це унікальна структурна можливість, викликана геополітичним розколом.

Море — це величезні витрати на створення екосистеми. Кожен збиток — це реальні інвестиції у розвиток незалежної екосистеми, у R&D, у підтримку програмного забезпечення, у залучення інженерів для вирішення проблем на місцях. Ці витрати — не через погане управління, а необхідна «військова плата» за побудову незалежної екосистеми.

Ці три фінансові звіти більш чесно, ніж будь-який аналітичний огляд, відображають реальний стан цієї боротьби за обчислювальні потужності. Це не перемога у швидкому штурмі, а жорстока і кровопролитна позиційна битва.

Але сама форма війни вже змінилася. Вісім років тому ми говорили про питання «зможемо вижити». Сьогодні — про ціну, яку потрібно заплатити, щоб залишитися живим.

Саме ціна — це і є прогрес.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити