Построение независимой экосистемы ИИ: как локальные чипы и передовые алгоритмы управляют изменениями в 2026 году

Прошло восемь лет с начала геополитических испытаний. В 2018 году международные барьеры вспыхнули в индустрии полупроводников, и китайские компании столкнулись с беспрецедентным кризисом. Но к 2026 году ситуация кардинально изменилась. Ландшафт глобального ИИ отражает значительные перемены — от технологий, доминируемых одной державой, к миру, где развиваются множество путей одновременно. Основной вопрос теперь не «можем ли мы выжить», а «сколько стоит добиться независимости в вычислениях».

Истинные препятствия: только экосистема, а не только чипы

Многие считают, что главная проблема — аппаратное обеспечение. Но реальность глубже. Платформа CUDA — Compute Unified Device Architecture — стала настоящим барьером для китайских компаний в области ИИ. NVIDIA создала эту платформу в 2006 году, предоставляя разработчикам прямой доступ к вычислительной мощности GPU. Изначально это был просто инструмент. Но с эпохой глубокого обучения он стал фундаментом всей индустрии.

Обучение крупных моделей ИИ — по сути, массивные матричные операции — и именно GPU сформировали этот рынок. Экосистема CUDA развивалась более десяти лет, создавая комплексную цепочку от аппаратного обеспечения до прикладных решений для разработчиков ИИ по всему миру. Сегодня все основные фреймворки — от TensorFlow Google до PyTorch Meta — глубоко зависят от инфраструктуры CUDA.

Эта экосистема стала маховиком, который трудно остановить. Чем больше разработчиков использует её, тем больше инструментов и библиотек создается. Чем более развита экосистема, тем больше присоединяется новых участников. К 2025 году в CUDA насчитывалось более 4,5 миллиона разработчиков, поддерживающих свыше 3000 GPU-ускоряемых приложений. Это означает, что более 90% мировых разработчиков ИИ работают в этой экосистеме.

Проблема не только техническая, но и структурная. Если захочешь перейти на другую платформу, придется переписывать весь опыт, инструменты и код, накопленные за десятилетия лучшими умами мира. Кто заплатит за эту цену? Поэтому в условиях новых барьеров 2022–2024 годов китайские компании в области ИИ избрали не прямое противостояние, а более сложный путь — достижение технологической независимости через инновации.

Алгоритмический прорыв: как изменились экономические издержки

С конца 2024 по 2025 год китайские компании ИИ коллективно переключились на новую техническую стратегию: модель смешанных экспертов (MoE — Mixture of Experts). Идея элегантна и мощна — вместо запуска всей большой модели для каждой задачи, модель делится на множество меньших экспертов, активируя только наиболее релевантные компоненты.

Пример — DeepSeek V3. 671 миллиард параметров, но для каждого вывода используется всего 37 миллиардов — лишь 5,5% от общего числа. Для обучения модель использовала 2048 GPU NVIDIA H800 за 58 дней, общие затраты составили 5,576 миллиона долларов. Для сравнения, ожидаемая стоимость обучения GPT-4 — около 78 миллионов долларов — разница примерно в полтора порядка.

Такое экстремальное оптимизирование напрямую отражается на ценах. API DeepSeek стоит от 0,028 до 0,28 долларов за миллион токенов, тогда как GPT-4 — 5 долларов за ввод. Claude Opus — еще дороже. Практический результат: DeepSeek в 25–75 раз дешевле конкурентов.

Это изменение существенно влияет на мировой рынок разработчиков. В феврале 2026 года на платформе OpenRouter — крупнейшем в мире сервисе интеграции API — недельное использование китайских моделей ИИ выросло на 127% всего за три недели, впервые превысив показатели США. Год за годом доля китайских моделей остается ниже 2%, но за год она достигла 6%.

Причина — структурная. С второй половины 2025 года основное применение ИИ сместилось с простого диалога на системы на базе агентов. В сценариях с агентами использование токенов в 10–100 раз выше, чем в обычных диалогах. При экспоненциальном росте потребления токенов цена становится решающим фактором. И именно высокая эффективность китайских моделей идеально соответствует новым требованиям рынка.

От inference к обучению: качественный скачок локальных чипов

Одним из крупнейших достижений стало переход локальных чипов от только inference к полноценному обучению. Это не просто постепенное улучшение — это качественный прорыв.

В Цзянсу Синьхуа за 180 дней после подписания контракта была запущена 148-метровая производственная линия для локальных серверов вычислительной мощности. В основе — два полностью отечественных чипа: процессор Loongson 3C6000 и AI-ускоритель Taichu Yuanqi T100 — разработанные полностью внутри страны, от набора команд до микроархитектуры.

В январе 2026 года Zhipu AI совместно с Huawei выпустили GLM-Image — первую современную модель генерации изображений, полностью обученную на локальных чипах. В феврале China Telecom завершила обучение своей модели «Xingchen» — триллионных параметров — на локальном кластере в Шанхае Линганг.

Главное — не сами чипы, а сигнал: локальная инфраструктура стала жизнеспособной для производства AI-решений. Inference требует только inference-способностей — низких требований. Обучение — это обработка больших данных, сложные градиентные вычисления, высокая пропускная способность и развитая программная экосистема. Это уровень требований выше.

Здесь доминируют серии Huawei Ascend. К концу 2025 года в экосистеме Ascend насчитывалось 4 миллиона разработчиков и более 3000 партнеров. 43 ведущие модели индустрии успешно прошли предварительное обучение на Ascend, более 200 — с открытым исходным кодом. 2 марта 2026 года на MWC Huawei представила инфраструктуру SuperPoD для зарубежных рынков, а Ascend 910B достиг FP16-вычислительной паритетности с NVIDIA A100.

Создание такой экосистемы не началось с идеального чипа. Всё стартовало с «достаточно хорошего» чипа, внедренного в масштаб, с реальными бизнес-задачами как катализатором постоянных улучшений. Стратегические цели ByteDance, Tencent и Baidu по внедрению локальных серверов удвоились в 2026 году по сравнению с 2025-м.

Невидимое преимущество: энергия как новая конкурентная граница

Пока мир сосредоточен на конкуренции чипов, на заднем плане растет более фундаментальный фактор — энергия.

В США в Вирджинии в начале 2026 года приостановили выдачу новых разрешений на строительство дата-центров. Потом последовали Джорджия, Иллинойс, Мичиган. По данным IEA, потребление электроэнергии дата-центров в США достигло 183 ТВтч в 2024 году — около 4% национального потребления. К 2030 году ожидается удвоение до 426 ТВтч, что составит более 12% всей электроэнергии страны.

Генеральный директор Arm предупредил, что только дата-центры для ИИ могут к 2030 году потреблять 20–25% электроэнергии США. Сеть уже перегружена. В системе PJM, охватывающей 13 восточных штатов, дефицит составляет 6 ГВт. К 2033 году США столкнутся с национальным дефицитом энергии в 175 ГВт — эквивалентом потребления 130 миллионов семей. Цены на электроэнергию в регионах с крупными дата-центрами выросли за последние пять лет на 267%.

В Китае ситуация иная: годовая генерация — 10,4 трлн единиц, в 2,5 раза больше американской мощности. Еще важнее — бытовое потребление в Китае — всего 15% от общего, тогда как в США — 36%. Это означает, что у Китая есть большая промышленная мощность, которую можно выделить под инфраструктуру ИИ.

Стоимость электроэнергии в Китае значительно ниже: промышленные тарифы в западной части достигают около $0,03 за кВтч, тогда как в США — $0,12–0,15, в 4–5 раз дороже.

Практический вывод — пока Америка переживает о нехватке энергии, Китай тихо масштабирует инфраструктуру. Производственные мощности достигли 1590 EFLOPS по данным Минпромторга. В 2026 году начинается массовое внедрение локальной вычислительной мощности.

Токены как новая цифровая товарность

Этот феномен создает новую экономическую реальность. Токен — базовая единица информации, используемая моделями ИИ — становится новым цифровым товаром, производимым в китайских вычислительных фабриках и распространяемым по всему миру через подводные кабели.

Распределение пользователей DeepSeek говорит само за себя: 30,7% — из Китая, 13,6% — из Индии, 6,9% — из Индонезии, 4,3% — из США, 3,2% — из Франции. Поддерживаются 37 языков, особенно активно в развивающихся рынках — Бразилии. В мире зарегистрировано 26 000 компаний, 3200 используют корпоративные версии.

К 2025 году 58% новых стартапов в области ИИ интегрируют DeepSeek в свои технологические стеки. В Китае доля рынка достигает 89%. В других странах — 40–60%, в зависимости от региона. Такой паттерн распределения напоминает цифровую версию классической торговой цепочки — технология производится в одном регионе, распространяется по всему миру, создавая новые экономические зависимости.

Историческая параллель: чем сегодня отличается ситуация

Параллель с японским кризисом полупроводников 1986 года очень показательна. Тогда Япония достигла пика — 51% мирового рынка, шесть из топ-10 компаний были японскими. Но после подписания соглашения США и Японии по полупроводникам США использовали расследования по разделу 301 и стратегическую поддержку корейских конкурентов, чтобы разрушить японскую позицию. Доля японского рынка DRAM снизилась с 80% до 10%.

Эта трагедия японцев базировалась на зависимости от одного пути — более эффективного производства, но без независимой экосистемы. Когда доступ к рынку исчез, у них не было запасных стратегий.

Текущая позиция Китая — стратегически иная. Это не оборона, а осознанный выбор. Каждый слой — от алгоритмической оптимизации до разработки локальных чипов, инфраструктуры энергии и глобального распределения токенов — построен специально для достижения независимости. Каждая потеря в конкуренции за чипы — это прямые денежные издержки на развитие экосистемы. Но это — «налог войны» за создание по-настоящему автономной инфраструктуры.

2026 год: пол-огня, пол-воды

27 февраля 2026 года одновременно были опубликованы отчеты трех локальных компаний по чипам для ИИ. Cambrian — выручка выросла на 453%, достигнута первая полная прибыль за год. Moore Threads — рост выручки на 243%, чистый убыток 1 млрд долларов. Muxi — рост выручки на 121%, убыток 8 млрд.

Модель — пол-огня, пол-воды. Огонь — это жажда рынка к альтернативам. Доминирование Huang Renxun с 95% рынка делает невозможным монополизацию инфраструктуры NVIDIA — и каждый финансовый отчет местных компаний подтверждает, что рынок готов принимать менее совершенные технологии при наличии выбора.

Вода — убытки — это реальная цена построения экосистемы. Каждый убыток — это накопленные расходы на развитие, субсидии программного обеспечения и инженерную поддержку клиентов. Это не знак неудачи, а проявление военного экономического мышления в борьбе за независимость.

Эта трансформация — не праздник победы. Это жесткий боевой отчет, где солдаты растут, кровоточа. Но сама природа войны кардинально изменилась. Восемь лет назад вопрос был: «сможем ли мы выжить?». Сегодня — «сколько стоит наша свобода?». И цена, парадоксально, — показатель настоящего прогресса.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить