La primera informe financiero tras la salida a bolsa de Zhipu, la compañía de modelos a gran escala con mayores ingresos nacionales, con un ARR de MaaS de 1.7 mil millones.

问AI · 模式 de MaaS de 智谱 如何实现 una mejora significativa del margen de beneficio bruto?

El 31 de marzo, el unicornio de modelos de IA, 智谱, entregó su primer informe anual de resultados posterior a su salida a bolsa. Según el informe financiero más reciente, durante el año finalizado el 31 de diciembre de 2025, 智谱 logró unos ingresos anuales de más de 724 millones de yuanes, con un crecimiento interanual del 131,9%. Para comparar, de 2022 a 2024, los ingresos anuales de la empresa fueron de 57 millones, 125 millones y 312 millones de yuanes, respectivamente, mostrando una tendencia de crecimiento acelerado y sostenido.

En términos de tamaño de ingresos, 智谱 ya se ha convertido en la empresa de modelos de IA con el mayor volumen de ingresos en el mercado nacional. Como referencia, otra empresa de modelos de IA listada en Hong Kong, MiniMax, tuvo ingresos totales en 2025 de aproximadamente 79.04M de dólares. En el plano del modelo de negocio, las dos compañías también han tomado caminos distintos. MiniMax se centra más en productos de aplicaciones nativas de IA, mientras que 智谱 emplea principalmente un modelo de Model-as-a-Service (MaaS): mediante llamadas a API, proporciona servicios inteligentes a clientes empresariales y desarrolladores.

Al desglosar el informe de resultados de 智谱, un indicador central que merece atención es que la ARR (ingresos recurrentes anuales) de su plataforma MaaSAPI es de aproximadamente 1.700 millones de yuanes, con una mejora de 60 veces año contra año. La ARR se usa normalmente para medir la capacidad de ingresos sostenibles de una empresa; puede reflejar la salud del negocio. En un modelo MaaS, este indicador refleja con más precisión si los clientes continúan llamando al modelo y consumiendo Tokens de forma estable, en lugar de depender de un aumento de ingresos impulsado por proyectos puntuales.

Antes, el mercado percibía a 智谱 más como una empresa de modelos de IA orientada a proyectos. Pero a medida que la estructura de ingresos de 智谱 se desplaza hacia el modelo MaaS con llamadas a API como núcleo, la lógica de su crecimiento de ingresos también está cambiando: ya no depende de un proyecto individual, sino de un comportamiento continuo de uso del modelo.

En cierto sentido, el camino de 智谱 no deja de recordar a una de las compañías líderes de IA a nivel global, Anthropic. Por un lado, se refuerzan de manera continua las capacidades del modelo base para mejorar el “techo” del modelo. Por otro lado, el producto adopta Tokens como forma central, y se impulsa el crecimiento mediante el uso profundo impulsado por el ecosistema de desarrolladores y clientes a nivel empresarial. Bajo esta lógica, 智谱 se está convirtiendo gradualmente en un ejemplo de empresa de modelos en el mercado chino, más cercana a la senda de desarrollo de Anthropic.

Romper el “aumentar ingresos sin aumentar beneficios” del MaaS: no se reduce el volumen al subir precios, y se vuelve a la esencia del negocio

Durante mucho tiempo, el mercado ha tenido una duda típica sobre el modelo MaaS: si es fácil caer en un escenario de “aumento de ingresos sin aumento de utilidades”. Las razones son claras: los ingresos de MaaS están directamente vinculados al consumo de Tokens, y los Tokens corresponden a costos continuos de cómputo. Cuando los ingresos y los costos se encadenan en la misma vía, a medida que se expande la escala, el margen de beneficios suele enfrentar presión de compresión constante. Con un pequeño descuido, se puede terminar en una situación incómoda de “hacer cada vez más, ganar cada vez más delgado”.

Sin embargo, el último informe financiero de 智谱 libera señales bastante positivas. El margen de beneficio bruto de su plataforma MaaS API ha mejorado de forma notable: sube del 3,3% en 2024 al 18,9% en 2025, mejorando claramente la rentabilidad total. Combinando con los datos divulgados en el prospecto anterior, durante el periodo histórico de desempeño de 2022 a 2024, el margen de beneficio bruto total de 智谱 se mantuvo relativamente estable, manteniéndose durante largo tiempo por encima del 50%.

Además de optimizar al máximo la eficiencia del razonamiento del modelo y comprimir el costo de Tokens al mínimo, otro factor clave que impulsa la mejora del margen bruto es el aumento continuo de la proporción de clientes principales de alto valor.

Según se divulga en el informe financiero, ya hay más de 4 millones de usuarios empresariales y desarrolladores que continúan llamando de manera sostenida a las capacidades de modelos de 智谱 en entornos reales de producción, cubriendo 218 países y regiones a nivel global. Entre las 10 principales compañías de Internet en China, 9 de ellas utilizan los modelos de 智谱 GLM. Por ejemplo, en el caso del modelo GLM-5, dentro de las 24 horas posteriores a su lanzamiento, obtuvo integraciones oficiales de múltiples productos de plataformas líderes, como los de ByteDance TRAE/Coze, Alibaba Qoder y Tencent CodeBuddy, así como CatPaw de Meituan, entre otros.

Por otro lado, estos clientes principales son más sensibles a la efectividad del modelo, y su tolerancia a los precios es relativamente mayor. Una señal importante es que 智谱 anunció en febrero de este año ajustes estructurales al sistema de precios del paquete GLMCodingPlan; el aumento general parte desde 30%, para garantizar la estabilidad y la calidad del servicio bajo cargas altas. Aunque el precio de la API aumentó 83% en el primer trimestre, el volumen de llamadas no disminuyó, sino que incluso aumentó. Esto indica que los clientes realmente están dispuestos a pagar por los resultados, y no por una concesión de precio.

Para 智谱, esto también forma un ciclo de realimentación positiva derivado de la subida de precios. Un precio más alto, hasta cierto punto, filtra a los clientes de mayor valor que se enfocan más en la efectividad. Estos clientes suelen tener una mayor tasa de retención y una mayor profundidad de uso, lo que, a su vez, consolida la calidad del negocio y su capacidad de crecimiento sostenido.

En el marco de la reunión anual del subforo de la Conferencia de 2026 de Zhongguancun celebrada el 27 de marzo, el CEO de 智谱, 张鹏, al hablar sobre el aumento de precios de los modelos, señaló que, a medida que los modelos se involucran en tareas complejas y la cadena de pensamiento y razonamiento se alarga de forma continua, la cantidad de Tokens necesaria para completar una tarea puede llegar a ser entre 10 y 100 veces la de un simple cuestionario y respuestas. Por lo tanto, el ajuste correspondiente de precios, en esencia, es un resultado natural del cambio de costos. La mejora de la capacidad del modelo también conlleva un aumento del costo del servicio; el objetivo es ir devolviéndolo gradualmente al rango de valor comercial normal.

“Confiar durante mucho tiempo en la competencia de precios bajos, en realidad no es beneficioso para el desarrollo de toda la industria; esta es también una consideración importante nuestra.” 张鹏 agregó además: “Esperamos, a través de este tipo de forma, formar un ciclo cerrado más saludable en la trayectoria de la comercialización, optimizando continuamente la capacidad de los modelos y, de manera más prolongada y estable, proporcionar a todos mejores modelos y servicios correspondientes de Tokens”.

En última instancia, el juicio central de 智谱 puede resumirse así: el “techo” inteligente determina el poder de fijación de precios, y la escala del consumo de Tokens determina el tamaño del valor.

Dicho de otra manera: cuanto más fuerte sea la capacidad del modelo, mayor será su sustituibilidad en escenarios clave y, por tanto, mayor será el margen de negociación que puede respaldar. Y solo cuando el modelo logra un uso a gran escala y sostenido, formando un consumo de Tokens estable, el valor comercial puede materializarse verdaderamente. Por eso, el valor comercial de AGI, en esencia, es el resultado de la interacción entre el techo inteligente y la escala del consumo de Tokens.

Cuando Tokens se conviertan en la nueva moneda, 智谱 ofrece un nuevo sistema para medir el valor de la IA

Al examinar el primer informe anual de resultados de 智谱, no es difícil darse cuenta de que se está acelerando la formación de una rueda impulsada por MaaS con dinámica positiva. Concretamente, a medida que se incrementa de forma continua la capacidad del modelo, se atrae a más empresas y desarrolladores para conectarse. La ampliación de la escala de conexión eleva el volumen de llamadas de Tokens y empuja el crecimiento de los ingresos. A su vez, los ingresos que siguen creciendo pueden reinvertirse para el entrenamiento del modelo y la inversión en potencia de cómputo, reforzando aún más la capacidad del modelo. Así, en un ciclo de avance incremental, se forma un circuito cerrado de crecimiento que se refuerza a sí mismo.

En esta rueda MaaS, la variable más clave es precisamente la mejora continua de la capacidad del modelo. 智谱 propuso que la mejora del techo inteligente es la “primera” y única, en la era de los grandes modelos e incluso de la inteligencia artificial de propósito general.

Durante el último año, el modelo base de 智谱 completó en total más de 5 iteraciones importantes, logrando una evolución continua desde GLM-4.5 hasta GLM-5-Turbo. En rankings autorizados de evaluación, como Artificial Analysis, los modelos de la serie GLM se ubican en el primer grupo a nivel global, solo por detrás de modelos avanzados como Google Gemini, OpenAI GPT y Anthropic Claude; al mismo tiempo, van por delante de muchos modelos nacionales.

Un cambio más evidente es que los modelos de la serie GLM están evolucionando de una orientación “basada en conocimiento” hacia una orientación “basada en tareas”. Ya no se limitan a bases de conocimiento de tipo preguntas y respuestas, sino que tienen capacidades de agentes inteligentes para completar tareas complejas de forma independiente. GLM-5 es precisamente el producto de esta transformación bajo la tendencia de “Agentic Engineering”. Según la introducción oficial, GLM-5 logra resultados SOTA de código abierto en capacidades de Coding y Agent; en experiencias de uso en escenarios reales de programación, ya se aproxima a Claude Opus 4.5, y es especialmente experto en ingeniería de sistemas complejos y tareas de agentes de largo alcance.

El GLM-5-Turbo, lanzado recientemente a mediados de este mes, se posiciona como “un modelo base optimizado en profundidad para el escenario de la langosta OpenClaw”. Durante la fase de entrenamiento, este modelo se optimizó de forma específica para las necesidades centrales de la tarea de langosta. Se fortalecen capacidades clave como el uso de herramientas, el seguimiento de instrucciones, tareas programadas y de continuidad, ejecución de cadenas largas, etc., solucionando de manera efectiva múltiples problemas que los modelos de propósito general enfrentan en escenarios reales de langosta.

En el periodo reciente, el proyecto de agentes de código abierto OpenClaw ha desencadenado una oleada de despliegues tanto dentro como fuera de China. Sin embargo, debido a factores como que el despliegue local de OpenClaw tiene barreras elevadas y que el costo de consumo de Tokens es extremadamente alto, muchos usuarios han optado por soluciones de “despliegue con un clic” proporcionadas por proveedores de nube nacionales y proveedores de modelos. Compañías de modelos base como 智谱 se han beneficiado de esta ronda de la ola OpenClaw.

El 10 de marzo, 智谱 lanzó oficialmente AutoClaw (Aolong) y lo definió como “la primera versión local de OpenClaw que se instala de verdad con un solo clic en China”. AutoClaw encapsula 50+ Skills y APIs principales, y admite la integración con herramientas de mensajería instantánea como Feishu con un clic. En OpenRouter, la mayor plataforma global de agregación de APIs de modelos de IA, el volumen de llamadas del GLM-5-Turbo esta semana llegó a 9660 billones de Tokens, ocupando el top 10 a nivel mundial. 智谱 ya se ha convertido en uno de los fabricantes con mayor consumo de Tokens de pago en el mercado nacional.

Los Tokens se están convirtiendo gradualmente en la “nueva moneda” de la era de la economía inteligente. Como la unidad mínima para que los modelos procesen información, el volumen de llamadas de Tokens se considera en la industria como un indicador importante para medir la actividad del modelo y el alcance real de procesamiento. Huang Renxun, fundador y CEO de Nvidia, dijo de manera directa que Tokens es “una nueva materia prima de gran escala”, y Alibaba también ha creado un nuevo grupo de negocios con Token Hub como línea principal central. Al mismo tiempo, una nueva generación de agentes complejos, representada por OpenClaw, está empujando el consumo de Tokens hacia una fase de crecimiento exponencial, marcando que la aceleración de una nueva era en la que los Tokens se disparan está llegando.

Con la rápida expansión del volumen de consumo de Tokens, la industria también necesita con urgencia un nuevo marco para medir cómo los Tokens se convierten de manera más eficiente en valor real. En este contexto, 智谱 propuso el concepto de “Token Architecture Power” (TAC) y lo definió como: TAC = cantidad de inteligencia llamada × calidad de la inteligencia × eficiencia de conversión a valor económico.

En concreto, “cantidad” se refiere al número de Tokens que empresas e individuos llaman cada día y al volumen de tareas que se encarga a la IA procesar. “Calidad” mide si el modelo sobre el que se apoyan los Tokens es lo suficientemente inteligente y confiable, y si puede producir resultados entregables en escenarios complejos. “Eficiencia” se centra en si es posible encontrar el escenario adecuado para que la IA realmente se convierta en producción económica medible.

A largo plazo, la competencia central de organizaciones e individuos dependerá cada vez más de su nivel TAC. En comparación con un simple proveedor de grandes modelos, el objetivo de 智谱 es construir infraestructura TAC para toda la sociedad, ayudando a todo tipo de organizaciones e individuos a programar y utilizar recursos inteligentes de manera eficiente, y a transformarlos de forma continua en valor económico que pueda materializarse y medirse.

Y esta trayectoria de desarrollo ya ha sido verificada inicialmente por el informe financiero más reciente divulgado por 智谱. Mirando hacia atrás, el significado central de este informe financiero quizá radique en que 智谱 demuestra una lógica de crecimiento relativamente clara y coherente: al mejorar continuamente el techo inteligente, se fortalece gradualmente la capacidad de fijar precios; luego se impulsa el crecimiento de ingresos de API; y, al mismo tiempo, se optimiza continuamente la estructura de margen bruto general. Así, se valida la sostenibilidad del modelo de negocio.

Si se examina desde la perspectiva de un “Anthropic versión china”, la lógica de valoración de 智谱 tampoco debería seguir anclada en el marco antiguo de las empresas de software tradicionales o las compañías basadas en proyectos, sino que debería desplazarse hacia un sistema de medición centrado en plataformas MaaS: enfocándose en la tasa de penetración de la plataforma, la escala del consumo de Tokens, y la fuerza de control del ecosistema representada por el TAC. En este nuevo sistema de coordenadas, el espacio de imaginación a largo plazo de 智谱 apenas está siendo abierto de verdad.

GLM-4,93%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado