Zhipu subió de precio por tercera vez este año, aumentando un 10% más, y los grandes modelos nacionales abandonan colectivamente la guerra de precios

robot
Generación de resúmenes en curso

¿Quiénes son los factores impulsores detrás de la renuncia colectiva a la guerra de precios en los grandes modelos nacionales de IA?

Zhipu vuelve a subir de precio. El 8 de abril, Zhipu lanzó oficialmente y open source su modelo GLM-5.1, y la plataforma de agregación de modelos OpenRouter muestra que Zhipu GLM ha aumentado nuevamente su precio en un 10%. Después del ajuste, el precio por token en caché en escenarios de codificación para GLM-5.1 ya se acerca al nivel de Claude Sonnet 4.6 de Anthropic. Hasta el momento, Zhipu (2513.HK) ha subido más del 14% en intradía, cotizando a 888.5 HKD, con una capitalización de mercado de 396.1 mil millones de HKD.

Zhipu ha aumentado de precio tres veces en las últimas semanas, con un nuevo incremento del 10%

Esta ya es la tercera vez que Zhipu aumenta de precio recientemente. Después de lanzar su nuevo modelo insignia GLM-5 el 12 de febrero, Zhipu ya había ajustado los precios de su plan de paquetes GLM Coding, con un aumento total de al menos un 30%. El 16 de marzo, Zhipu lanzó el primer modelo general de gran escala optimizado profundamente para el escenario de “langosta” llamado GLM-5-Turbo, y también aumentó los precios de su API para GLM-5-Turbo en un 20%.

El 8 de abril, la plataforma de agregación de modelos OpenRouter mostró que Zhipu GLM4 volvió a subir su precio en un 10%. Actualmente, el precio de entrada para GLM-5 Turbo es de 1.2 dólares por millón, y el de salida es de 4 dólares por millón. El precio de entrada para GLM-5.1, lanzado más recientemente, es de 1.26 dólares por millón, y el de salida de 3.96 dólares por millón. Calculando, GLM-5.1 tiene un aumento del 5% en el precio de entrada respecto a la generación anterior, y una ligera caída del 1% en el precio de salida.

El GLM-5.1, en su última versión, continúa manteniendo una posición de liderazgo en capacidades de programación. En las evaluaciones de código en los benchmarks SWE-bench Pro, Terminal-Bench y NL2Repo, obtiene un promedio global que lo sitúa en tercer lugar a nivel mundial, primero en China y primero en código abierto; en la prueba más cercana al desarrollo real de software, SWE-bench Pro, logra que el modelo nacional supere por primera vez a Opus 4.6, estableciendo un nuevo récord mundial.

Además, a diferencia de los modelos actuales que interactúan en minutos, el GLM-5.1 puede trabajar de forma autónoma y continua durante hasta 8 horas en una sola tarea, lo que representa la mayor novedad en el lanzamiento de este modelo. Durante la ejecución, el modelo puede planificar, ejecutar, probar de forma autónoma, cambiar de estrategia cuando encuentra obstáculos, repararse a sí mismo tras errores y entregar resultados completos a nivel de ingeniería.

Zhipu publicó recientemente su primer informe anual tras su salida al mercado. Los resultados financieros muestran que, hasta marzo de este año, los precios de las llamadas a la API de Zhipu aumentaron un 83% respecto a finales del año pasado, pero la demanda sigue siendo alta. El CEO de Zhipu, Zhang Peng, afirmó que hay muchas empresas que ofrecen servicios de API basados en capacidad computacional, y que la aceptación de los clientes ante los aumentos de precios y su continua elección indican que las capacidades del modelo realmente lideran. “Creo que la esencia del precio a largo plazo está determinada por el valor. Los recursos que pueden reemplazar eficazmente la mano de obra, mejorar la eficiencia de conversión y el nivel de inteligencia son escasos y valiosos. Nos enfocamos más en el valor que crea cada token y en el valor que aporta a los clientes. Solo si los clientes reconocen ese valor estarán dispuestos a pagar más por usarlo. Confío en que la capacidad de fijar precios todavía está determinada por nuestra fortaleza tecnológica y la posición de liderazgo que nos otorga la tendencia a largo plazo.”

Demanda en auge, los grandes modelos nacionales renuncian colectivamente a la guerra de precios

A diferencia de hace un año, cuando la narrativa de la guerra de precios dominaba a los fabricantes de grandes modelos nacionales, este año todos han comenzado a subir precios. En marzo, Tencent Cloud, Alibaba Cloud y Baidu Intelligent Cloud publicaron anuncios de ajuste de precios en una semana, aumentando los costos de sus servicios de capacidad de IA y productos relacionados con grandes modelos. Tencent Cloud aumentó en un 463.13% algunos modelos de su serie Hun Yuan, Alibaba Cloud subió entre un 5% y un 34% en productos de tarjetas de capacidad como Pingtouge Zhenwu 810E, y Baidu aumentó entre un 5% y un 30% en sus servicios de capacidad de IA, finalizando la fase de prueba gratuita de varios grandes modelos y pasando a la facturación comercial.

Por un lado, esto se debe a la explosión de demanda provocada por el auge de múltiples agentes inteligentes. Fuentes informadas revelaron que los precios de productos como la capacidad de IA y almacenamiento en Alibaba Cloud aumentaron hasta un 34%, principalmente por el aumento en el volumen de llamadas a tokens. “Durante el Año Nuevo, la explosión de aplicaciones de agentes de IA llevó a que los negocios MaaS de Alibaba Cloud alcanzaran su mayor crecimiento en enero a marzo de este año”, dijeron.

La API MaaS es un modelo comercial ampliamente adoptado por los fabricantes de modelos, que ofrece servicios tecnológicos para llamar a modelos de IA en la nube mediante interfaces estandarizadas. En una conferencia telefónica de resultados, el CEO de Zhipu, Zhang Peng, mencionó que las capacidades de IA ya no solo son útiles o divertidas, sino que abordan problemas cada vez más complejos e importantes, y que las llamadas API y el consumo de tokens realmente se están transformando en valor económico. La aparición de nuevas aplicaciones como “langosta” y las expectativas de inteligencia nativa a nivel de dispositivo también harán que el consumo de API y tokens crezca exponencialmente en el futuro.

También afirmó que, tras varios años en la industria de grandes modelos, esta busca un modelo comercial simple y económico que impulse rápidamente el crecimiento. La API es un modo de convertir la infraestructura de IA en recursos económicos operativos.

En la conferencia de resultados del cuarto trimestre y del año 2025 de Tencent, la dirección mencionó que la capacidad de producción de infraestructura básica como CPU ya está completamente reservada. Los proveedores priorizan a los clientes más grandes y con pedidos más estables, mientras que las empresas y proveedores de servicios en la nube más pequeños ya no confían en obtener soporte estable en la cadena de suministro y deben recurrir a proveedores de recursos a gran escala. Estos proveedores operan con márgenes de beneficio bajos, y cuando la demanda aumenta, toda la industria no tiene más opción que subir los precios.

GLM1,33%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado