¡El modelo de tokens de IA de China lidera a nivel mundial! ¡Gran explosión en la cadena de la industria de la computación!

robot
Generación de resúmenes en curso

El concepto de capacidad informática mostró un desempeño fuerte el 8 de abril; acciones como Kaile Stock, Pingzhi Information, Weida Tech, Zhejiang Wenlian, Data Port, Cayman Stock, Litong Electronics, Runjian Stock, Mingpu Optics, Fu’an Stock, Auride, Huafu Fashion, Lianhua Holding y HeTai alcanzaron el límite de subida en su cotización; además, 19 acciones como Wangsu Technology, UCloud, Deep Signal, ZTE Xuchuang y Kunlun Wanwei registraron fuertes alzas de más del 10%.

En conjunto, en el mercado, la fortaleza del concepto de capacidad informática se debe, por un lado, al impulso de la explosión de las aplicaciones de Agente de nuestro país y del ecosistema multimodal; por otro lado, está relacionada con que nuestro país lidera globalmente en la llamada de Tokens de modelos de gran escala.

En el frente de noticias, el 8 de abril, Zhipu publicó oficialmente un nuevo modelo de código abierto de próxima generación, GLM-5.1. Según se informa, es el único modelo de código abierto que alcanza niveles de trabajo continuo de unas 8 horas; en el benchmark SWE-bench Pro, el más cercano al desarrollo real de software, GLM-5.1 logró que, por primera vez, un modelo nacional superara a Claude Opus 4.6 de Anthropic.

Además, DeepSeek también ha recibido una actualización importante: se lanzó el modo de expertos. Según lo informado por el reportaje de Yicai Global, esta es la primera vez que DeepSeek introduce en el producto un diseño de estratificación de modos desde que se hizo famoso. El modo rápido es adecuado para conversaciones diarias, con respuesta inmediata, y admite reconocimiento de texto en imágenes y archivos; el modo de expertos es experto en problemas complejos, admite pensamiento profundo y búsqueda inteligente; actualmente no admite carga de archivos ni funciones multimodales, y DeepSeek también recuerda que, si se presenta un pico en ese modo, habrá que esperar.

Con la popularización de los grandes modelos de IA, el volumen de llamadas de Tokens de los modelos nacionales también lidera globalmente. Los datos de la plataforma OpenRouter muestran que, la semana pasada (del 30 de marzo al 5 de abril), el volumen semanal de llamadas del modelo de gran IA de China alcanzó 12.96 billones de Tokens, un aumento del 31.48% frente a la semana anterior; mientras que en Estados Unidos fue de solo 3.03 billones de Tokens, con un crecimiento intersemanal de apenas 0.76%, y la brecha sigue ampliándose. En detalle, los 6 modelos principales en volumen de llamadas de Tokens provienen de China; Qwen3.6 Plus ocupa el primer lugar con 4.6 billones de Tokens.

Guotong Securities afirma que justamente el desarrollo de los grandes modelos ha provocado un salto en la demanda de capacidad informática, lo cual puede dividirse en tres etapas:

Primera etapa: Chatbot, modo de preguntas y respuestas, con contexto corto y un consumo limitado de Tokens por cada consulta.

Segunda etapa: Agente bajo (low Agent), donde las capacidades se amplían a llamadas de herramientas, incluyendo búsqueda de páginas web, ejecución de código, consulta de bases de datos, llamadas a APIs externas, etc., y no solo la generación de texto. Además, la carga y la llamada de herramientas incrementan el contexto, haciendo que el consumo de Tokens sea significativamente mayor que en escenarios de Chatbot puro. Según datos de pruebas de Anthropic, el consumo de Tokens de un solo Agente es aproximadamente 4 veces el de un Chatbot puro.

Tercera etapa: Agente de nivel intermedio (mid-tier Agent), que es la etapa en la que la IA está entrando actualmente y también el impulso central que causa una transformación cualitativa en la demanda de capacidad informática. En la etapa de Prefill (pre-carga) del Agente de nivel intermedio, durante la ejecución se deben cargar definiciones de muchas herramientas, instrucciones del sistema y resultados intermedios, lo que hace que la longitud del contexto se expanda continuamente durante la ejecución de la tarea. Tomando como ejemplo Manus, la proporción promedio entre Tokens de entrada y de salida es de aproximadamente 100:1. Y según datos de pruebas de Anthropic, el consumo de Tokens en sistemas de multiAgente es de aproximadamente 15 veces el del modo de conversación.

Shanghai Securities señala que, con la iteración continua de los grandes modelos en el país y que la economía de Tokens ha encendido la demanda de capacidad informática, la cadena de suministro nacional de capacidad informática podría estar a punto de entrar en un punto de inflexión.

En cuanto a acciones individuales, en la cadena de la industria de capacidad informática, destacan los chips de capacidad informática (Cambricon, Hygon Information); las comunicaciones ópticas (como ZTE Xuchuang, Newisheng, Tianfu Communication, etc.); proveedores de AIDC (como Baoxin Software, Runze Technology, Huanhuan New Network, etc.); y la refrigeración líquida (como Inveq, Shenying Environment, Wangsu Technology, etc.), que reciben más atención del mercado.

(Fuente: Centro de Investigación de Oriental Fortune)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado