Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Китайские AI-модели больших масштабов лидируют в мире по вызову токенов! Взрывной рост в цепочке индустрии вычислительных мощностей
Концепт вычислительных мощностей показал сильную динамику 8 апреля: акции Kai’er Shares, Pingzhi Information, Weidaikeji, Zewen Hulian, Data Harbor, Cayman Shares, Litong Electronics, Runjian Shares, Mingtongguangci, Fushan Shares, Oryde, Huifu Fashions, Lianhua Holdings, HeTai涨停; 19 акций, включая WASU Technology, UCloud, Sinno, 中际旭创, Kunlun Wanwei и др., выросли более чем на 10%.
В целом по рынку, сильная динамика концепта вычислительных мощностей, с одной стороны, связана с тем, что в Китае бум приложений Agent и мультимодальной экосистемы подстегнул спрос; с другой стороны, это также связано с тем, что китайские LLM по лидирующим показателям опережают глобальный рынок по вызовам токенов.
На информационной повестке: 8 апреля Zhipu официально выпустила новое поколение открытой модели GLM-5.1. Как сообщается, это единственная открытая модель, способная работать в режиме непрерывно на уровне 8 часов. На самом близком к реальной разработке ПО бенчмарке SWE-bench Pro GLM-5.1 впервые превзошла модель Claude Opus 4.6 компании Anthropic в категории отечественных моделей.
Кроме того, DeepSeek также получила важное обновление — запущен режим экспертной модели. По данным 第一财经, это впервые с момента выхода DeepSeek в продуктовой части внедрено модульное разбиение по режимам. Быстрый режим подходит для повседневных диалогов: мгновенный отклик, поддержка распознавания текста в изображениях и файлах. Экспертный режим лучше справляется со сложными задачами: поддерживает глубокое размышление и интеллектуальный поиск. В настоящее время он не поддерживает загрузку файлов и мультимодальные функции; DeepSeek также напоминает, что при пиковой нагрузке в этом режиме придется ждать.
По мере популяризации AI больших моделей лидирует и объем вызовов токенов для отечественных LLM. Данные платформы OpenRouter показывают, что за прошлую неделю (30 марта — 5 апреля) еженедельный объем вызовов китайских AI-LLM достиг 12,96 трлн Token, что на 31,48% больше, чем неделей ранее; при этом в США — лишь 3,03 трлн Token, прирост в помесячном (недельном) сравнении составил всего 0,76%, а разрыв продолжает увеличиваться. В частности, из топ-6 моделей по объему вызовов Token все принадлежат Китаю; Qwen3.6 Plus с 4,6 трлн Token занимает первое место.
Гоцзинь Секьюритиз заявил, что именно развитие больших моделей стало причиной скачка спроса на вычислительные мощности, который можно разделить на три этапа:
Первый этап: Chatbot, режим «вопрос-ответ», короткий контекст, при одном запросе потребление Token ограничено.
Второй этап: низкоуровневый Agent, расширение возможностей до вызовов инструментов, включая поиск по веб-страницам, выполнение кода, запросы к базе данных, вызовы внешних API и т.д., а не только генерацию текста. Загрузка и использование инструментов приводит к росту контекста, а потребление Token заметно выше, чем в сценарии чистого Chatbot. По данным практического тестирования Anthropic, потребление Token одного Agent составляет примерно в 4 раза больше, чем у чистого Chatbot.
Третий этап: промежуточный Agent — это текущая стадия, в которую входит AI, и ключевой драйвер качественного изменения спроса на вычислительные мощности. На этапе Prefill (предзаполнение) промежуточного Agent в процессе выполнения нужно загружать большое количество определений инструментов, системных подсказок и промежуточных результатов, из-за чего длина контекста в ходе выполнения задач постоянно расширяется. Например, в Manus среднее соотношение Token на входе и выходе составляет около 100:1. А по данным практического тестирования Anthropic, потребление Token в многими Agent-системах примерно в 15 раз выше, чем в диалоговом режиме.
Шанхайская Секьюритиз заявила, что постоянная итерационная доработка отечественных больших моделей и то, что токен-экономика зажигает спрос на вычислительные мощности, создают предпосылки для наступления переломного момента в отечественной цепочке поставок вычислительных мощностей.
С точки зрения отдельных бумаг, в цепочке вычислительных мощностей больше всего внимания со стороны рынка уделяется: чипам для вычислительных мощностей (Hanguangji, Hanhua Information); оптической связи (中际旭创, 新易盛, 天孚通信 и т.п.); поставщикам AIDC (宝信软件, 润泽科技, 光环新网 и т.п.); жидкостному охлаждению (英维克, 申菱环境, 网宿科技 и т.п.).
(Источник: Центр исследований «Oriental Fortune»)