Китайские AI-модели больших масштабов лидируют в мире по вызову токенов! Взрывной рост в цепочке индустрии вычислительных мощностей

robot
Генерация тезисов в процессе

Концепт вычислительных мощностей показал сильную динамику 8 апреля: акции Kai’er Shares, Pingzhi Information, Weidaikeji, Zewen Hulian, Data Harbor, Cayman Shares, Litong Electronics, Runjian Shares, Mingtongguangci, Fushan Shares, Oryde, Huifu Fashions, Lianhua Holdings, HeTai涨停; 19 акций, включая WASU Technology, UCloud, Sinno, 中际旭创, Kunlun Wanwei и др., выросли более чем на 10%.

В целом по рынку, сильная динамика концепта вычислительных мощностей, с одной стороны, связана с тем, что в Китае бум приложений Agent и мультимодальной экосистемы подстегнул спрос; с другой стороны, это также связано с тем, что китайские LLM по лидирующим показателям опережают глобальный рынок по вызовам токенов.

На информационной повестке: 8 апреля Zhipu официально выпустила новое поколение открытой модели GLM-5.1. Как сообщается, это единственная открытая модель, способная работать в режиме непрерывно на уровне 8 часов. На самом близком к реальной разработке ПО бенчмарке SWE-bench Pro GLM-5.1 впервые превзошла модель Claude Opus 4.6 компании Anthropic в категории отечественных моделей.

Кроме того, DeepSeek также получила важное обновление — запущен режим экспертной модели. По данным 第一财经, это впервые с момента выхода DeepSeek в продуктовой части внедрено модульное разбиение по режимам. Быстрый режим подходит для повседневных диалогов: мгновенный отклик, поддержка распознавания текста в изображениях и файлах. Экспертный режим лучше справляется со сложными задачами: поддерживает глубокое размышление и интеллектуальный поиск. В настоящее время он не поддерживает загрузку файлов и мультимодальные функции; DeepSeek также напоминает, что при пиковой нагрузке в этом режиме придется ждать.

По мере популяризации AI больших моделей лидирует и объем вызовов токенов для отечественных LLM. Данные платформы OpenRouter показывают, что за прошлую неделю (30 марта — 5 апреля) еженедельный объем вызовов китайских AI-LLM достиг 12,96 трлн Token, что на 31,48% больше, чем неделей ранее; при этом в США — лишь 3,03 трлн Token, прирост в помесячном (недельном) сравнении составил всего 0,76%, а разрыв продолжает увеличиваться. В частности, из топ-6 моделей по объему вызовов Token все принадлежат Китаю; Qwen3.6 Plus с 4,6 трлн Token занимает первое место.

Гоцзинь Секьюритиз заявил, что именно развитие больших моделей стало причиной скачка спроса на вычислительные мощности, который можно разделить на три этапа:

Первый этап: Chatbot, режим «вопрос-ответ», короткий контекст, при одном запросе потребление Token ограничено.

Второй этап: низкоуровневый Agent, расширение возможностей до вызовов инструментов, включая поиск по веб-страницам, выполнение кода, запросы к базе данных, вызовы внешних API и т.д., а не только генерацию текста. Загрузка и использование инструментов приводит к росту контекста, а потребление Token заметно выше, чем в сценарии чистого Chatbot. По данным практического тестирования Anthropic, потребление Token одного Agent составляет примерно в 4 раза больше, чем у чистого Chatbot.

Третий этап: промежуточный Agent — это текущая стадия, в которую входит AI, и ключевой драйвер качественного изменения спроса на вычислительные мощности. На этапе Prefill (предзаполнение) промежуточного Agent в процессе выполнения нужно загружать большое количество определений инструментов, системных подсказок и промежуточных результатов, из-за чего длина контекста в ходе выполнения задач постоянно расширяется. Например, в Manus среднее соотношение Token на входе и выходе составляет около 100:1. А по данным практического тестирования Anthropic, потребление Token в многими Agent-системах примерно в 15 раз выше, чем в диалоговом режиме.

Шанхайская Секьюритиз заявила, что постоянная итерационная доработка отечественных больших моделей и то, что токен-экономика зажигает спрос на вычислительные мощности, создают предпосылки для наступления переломного момента в отечественной цепочке поставок вычислительных мощностей.

С точки зрения отдельных бумаг, в цепочке вычислительных мощностей больше всего внимания со стороны рынка уделяется: чипам для вычислительных мощностей (Hanguangji, Hanhua Information); оптической связи (中际旭创, 新易盛, 天孚通信 и т.п.); поставщикам AIDC (宝信软件, 润泽科技, 光环新网 и т.п.); жидкостному охлаждению (英维克, 申菱环境, 网宿科技 и т.п.).

(Источник: Центр исследований «Oriental Fortune»)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить