A primeira demonstração financeira da Zhipu foi divulgada, com a última declaração de Zhang Peng: redefinir os "princípios fundamentais" da comercialização de AGI, o limite superior da inteligência determina o poder de fixação de preços

Acabou de ser divulgado: após 83 dias do IPO da Zhipu, chegou a primeira demonstração financeira!

Os dados que mais chamam a atenção — sem exagero — são os das receitas da Zhipu:

Receita anual de 724 milhões de yuan, um crescimento homólogo de 132%, e topo entre as empresas de modelos de linguagem no mercado nacional em dimensão de receitas!

Enquanto toda a indústria de modelos de linguagem está profundamente atolada numa guerra de preços, tentando trocar dinheiro queimado por escala, a Zhipu, recém-listada, com esta primeira demonstração financeira, pode dizer-se que escolheu um caminho completamente oposto.

Vejamos diretamente mais alguns dados-chave:

  • ARR da plataforma MaaS API de cerca de 1,7 mil milhões de yuan; aumento de 60 vezes nos últimos 12 meses

  • Depois de aumentar os preços em 83% contra a corrente, o volume de chamadas do token não caiu; pelo contrário, subiu

  • A margem bruta melhora quase 5 vezes para 18,9%; a margem bruta integrada da empresa no ano inteiro é 41%, quebrando o feitiço do setor de IA de “aumentar receitas sem aumentar lucros”

Quase cada número está a quebrar — e a quebrar de novo — as ideias preconcebidas do setor.

Antes chamada “OpenAI versão China”, a Zhipu está agora cada vez mais distante da OpenAI no modelo de negócio, mas cada vez mais parecida com a Anthropic.

Esta demonstração financeira prova uma coisa: o desfecho comercial dos modelos de linguagem nunca foi “quem é mais barato”, mas sim quem é capaz de criar mais valor.

Tal como o CEO da Zhipu, Zhang Peng, disse na conferência telefónica acabada de realizar:

Desde que a Zhipu foi fundada em 2019, definimos “fazer com que as máquinas pensem como os humanos” como o único objetivo estratégico da empresa. Durante seis anos, este objetivo não mudou. Já passámos por críticas e por contratempos, mas inúmeros factos voltam a validar um juízo — a melhoria do limite da inteligência é a única “primeira” exigência no tempo da era da AGI dos modelos de linguagem.

Com base neste princípio fundamental, reconhecemos ainda outra coisa: o veículo para tornar a inteligência acessível ao grande público é o Token. Cada pessoa e cada organização pode, através de Tokens, chamar inteligência para criar valor. Por isso, o valor comercial na era da AGI pode ser resumido numa fórmula simples: limite da inteligência × escala de consumo de Token. O limite da inteligência determina o poder de fixar preços, e a escala de consumo de Token determina a dimensão do valor.

Como é que as empresas chinesas de modelos de linguagem “correm”: pode ver pela Zhipu

Para compreender o peso desta demonstração financeira da Zhipu, é preciso primeiro ver claramente a situação de sobrevivência atual da indústria chinesa de modelos de linguagem.

De meados de 2024 até agora, a guerra de preços tornou-se, sem dúvida, o campo de batalha onde cada jogador na área de modelos de linguagem disputa com tudo.

1 cêntimo por milhão de tokens, chamadas gratuitas para gerar tráfego — os jogadores trocam preço por volume, caindo num ciclo mortal em que quanto mais baixam o preço, menos lucro têm, e mais difícil fica investir em tecnologia, o que os volta a fazer baixar ainda mais o preço.

Este é o impasse de prejuízos de toda a indústria, do qual é difícil escapar.

Os dados de investigação mostram que, em 2024, a margem bruta média da indústria chinesa de modelos de linguagem foi de -80%, ou seja, encontra-se totalmente na fase de investimento puro; em 2025, a margem bruta média da indústria ainda é de -30%, e a esmagadora maioria dos jogadores continua a sustentar o crescimento da escala queimando dinheiro.

A redução de preços traz apenas uma prosperidade ilusória no volume de chamadas, mas não fecha um ciclo comercial saudável —

Quanto mais reduzem o preço, mais falta dinheiro para investir em I&D; mais difícil se torna melhorar o desempenho do modelo; e no fim só resta cair num ciclo maligno de “manter clientes de baixo valor que são sensíveis ao preço com preços baixos”.

Os que resistem à guerra de preços

Enquanto toda a indústria compete para ver quem tem o preço mais baixo, a Zhipu faz, de forma inversa, uma decisão que apanhou toda a gente de surpresa: aumentar os preços.

Em março de 2026, a Zhipu lançou o modelo GLM-5-Turbo, ajustando simultaneamente os preços da API para cima; a subida média face ao antecessor GLM-4.7 atinge 83%. Num contexto em que toda a indústria está a reduzir preços, esse aumento tão grande chegou a ser visto por muitos como “cortar a própria estrada”.

Mas no fim, o resultado bateu de frente com todas as dúvidas: depois do aumento, o volume de chamadas do token da Zhipu não só não caiu como continuou a subir.

Nas primeiras 24 horas após o lançamento do GLM-5, recebeu acesso oficial de plataformas de topo como TRAE/Coze da ByteDance, Qoder da Alibaba, CodeBuddy da Tencent, CatPaw da Meituan, WanQing da Kuaishou, Baidu Intelligent Cloud e WPS Office, entre outras.

Entre as 10 maiores empresas de internet da China, 9 tornaram-se clientes pagadores da Zhipu.

A lógica por trás disso é na verdade muito simples: para clientes empresariais com procura verdadeiramente ao nível de produção, o preço nunca é a primeira consideração; é o efeito que conta.

Um modelo que consegue concluir tarefas complexas de forma estável, sem falhas, e que realmente reduz custos e melhora a eficiência — mesmo que seja mais caro — vale muito mais do que um modelo barato que cai em problemas com frequência.

Tal como um desenvolvedor disse na comunidade:

Usamos modelos de linguagem para executar negócios de produção. Um erro pode causar perdas de dezenas de milhares ou até dezenas de milhões. Em vez de estar a tentar poupar uns tokens e viver com medo, mais vale gastar mais e usar um modelo fiável.

A Zhipu validou com este aumento de preços um juízo central: o limite da inteligência determina o poder de fixar preços; a escala de consumo de Token determina a dimensão do valor.

Quando o desempenho do seu modelo é suficientemente forte e consegue resolver verdadeiramente o problema central do cliente, você ganha a confiança para definir preços — em vez de ser forçado a entrar numa guerra de preços interminável.

A roda do MaaS começou a girar

Muita gente ainda associa a Zhipu à fase em que gera receitas ao fazer serviços de modelos de linguagem para empresas.

Mas esta demonstração financeira quebra totalmente essa ideia: a receita padronizada do MaaS API já se tornou o motor absoluto principal de crescimento da Zhipu; a roda do modelo de negócio MaaS já está a funcionar plenamente.

O que é MaaS? Model as a Service — modelos como serviço.

Em termos simples, significa encapsular as capacidades do modelo de linguagem em interfaces de API padronizadas; empresas e programadores pagam por volume de chamadas. Não precisam de implementar nem operar o modelo por conta própria para poderem aceder diretamente às capacidades do modelo de topo.

Este é precisamente o caminho comercial que a Anthropic conseguiu percorrer. Como principal concorrente da OpenAI, a Anthropic optou desde o início por seguir firmemente a via “modelo base + serviço via API”. Mais de 80% das receitas provêm de chamadas de API por empresas e programadores.

Em 2025, a receita anual da Anthropic atingiu 4,5 mil milhões de dólares, um salto de 12 vezes face a 2024; no final do ano, o ARR ultrapassou também os 9 mil milhões de dólares. A margem bruta passou de -94% em 2024 para 40% de forma abrupta e virou positiva. Com desempenho real, provou a viabilidade do modelo MaaS.

E a Zhipu está a seguir um caminho altamente alinhado com o da Anthropic: com o limite de inteligência do modelo como principal barreira, com o Token como forma principal do produto e com a utilização profunda por programadores e clientes do segmento empresarial como motor de crescimento.

O núcleo do crescimento não depende de projetos únicos e personalizados, mas sim de fazer com que a inteligência do modelo seja realmente usada por empresas e programadores, aplicada nos elos de produção, formando receitas sustentáveis e escaláveis.

Os dados nesta demonstração financeira também confirmam, por outro lado, que essa roda está a funcionar:

  • O ARR da plataforma MaaS API atingiu cerca de 1,7 mil milhões de yuan no ano passado; cresceu 60 vezes nos últimos 12 meses;

  • A plataforma já serviu 4 milhões de utilizadores empresariais e programadores, com presença em mais de 218 países e regiões em todo o mundo;

  • A Zhipu já se tornou um dos fabricantes com maior consumo de Tokens pagos a nível nacional; a base do cenário de Coding mantém-se estável; e a explosão de aplicações como OpenClaw abriu ainda um espaço totalmente novo para o consumo de escala de Tokens.

A lógica desta roda é, na verdade, um ciclo positivo perfeito: quanto melhor o desempenho do modelo, mais consegue atrair clientes empresariais de elevado valor; as chamadas profundas por clientes de elevado valor trazem receitas e lucros estáveis; e mais receitas voltam a ser investidas em I&D para melhorar ainda mais o desempenho do modelo.

Trocar tecnologia por lucro

O modelo MaaS é um negócio em que o custo marginal continua a diminuir e em que as economias de escala são muito fortes.

O modelo só precisa de ser treinado e otimizado uma vez para servir milhões de clientes em todo o mundo. Quanto maior o volume de chamadas, mais baixo é o custo por Token, e mais alta fica a margem bruta.

É por isso que a Zhipu consegue, nesta demonstração financeira, atingir um salto extraordinário de margem bruta. O relatório mostra que a margem bruta da plataforma MaaS API da Zhipu subiu 5 vezes face ao ano anterior; a margem bruta integrada no ano inteiro virou de forma significativa para valores positivos, muito acima da média do setor.

Os principais impulsionadores da melhoria da rentabilidade vêm de três aspetos:

  • Em primeiro lugar, a otimização extrema da eficiência de inferência do modelo: através de inovação de arquitetura e otimização de engenharia, reduziram o custo de inferência por Token para um patamar inferior ao do setor;

  • Em segundo lugar, a proporção de clientes topo de elevado valor tem continuado a aumentar; as taxas de retenção e a profundidade de chamadas desses clientes são muito superiores à média do setor;

  • Em terceiro lugar, o efeito de filtragem positivo causado pelo aumento de preços: preços mais altos selecionam clientes que valorizam mais o desempenho e têm maior capacidade de pagamento. O valor comercial desses clientes é muito maior do que o dos clientes de baixo valor e sensíveis ao preço.

Mais importante ainda, com a força da tendência de crescimento da atividade MaaS no presente; isso significa que a roda do MaaS da Zhipu não só já foi colocada a funcionar, como está a acelerar continuamente.

Da Universidade Tsinghua ao primeiro escalão global

A Zhipu consegue aumentar preços contra a maré na guerra de preços, consegue fazer a roda do MaaS funcionar e a confiança de base a partir do nível mais fundamental nunca foi marketing e operações — foi sempre força técnica real.

Muita gente sabe que o ponto de partida da Zhipu é a equipa técnica da Universidade Tsinghua. Desde o início, a Zhipu não seguiu a via “pura de GPT” em moda com arquitetura auto-regressiva como tendência; em vez disso, manteve a originalidade e construiu uma arquitetura única que integra codificação bidirecional GLM + fusão auto-regressiva. De raiz, tem vantagens como compreensão de textos longos, baixa alucinação e lógica forte, lançando uma base sólida para iterações técnicas posteriores.

Em 2022, a Zhipu lançou em código aberto o modelo GLM-130B com mil milhões de parâmetros. Tornou-se o único produto na Ásia selecionado para avaliações globais de modelos de linguagem mainstream da Stanford. Ao mesmo tempo, através de técnicas de quantificação, conseguiu rodar de forma fluida em placas gráficas de consumo, estabelecendo de uma vez por todas uma posição central no ecossistema de modelos de linguagem abertos em código aberto no país.

A partir desse momento, a Zhipu gravou “I&D técnica própria” na sua essência. Concluiu a autonomia e o controlo de ponta a ponta das tecnologias centrais, atingindo adaptação de ponta a ponta a chips domésticos, e assentou desde a base fundamentos de segurança técnica e otimização de custos.

Na indústria de modelos de linguagem existe uma verdade inabalável: o teto da monetização é sempre determinado pelo limite máximo de capacidade do modelo.

A Anthropic consegue um crescimento de receita de 12 vezes num ano; o núcleo está em as capacidades da série Claude continuarem a aproximar-se — e por vezes a superar — GPT. E a Zhipu consegue a posição número um em receitas de modelos de linguagem a nível nacional; o núcleo também está nas capacidades da série GLM, que já estão firmemente no primeiro escalão global.

No ano passado, a Zhipu concluiu uma rápida iteração de GLM-4.5 para GLM-4.6, GLM-4.7, e depois para GLM-5 e GLM-5-Turbo, mantendo o ritmo de topo da indústria de uma atualização do modelo base a cada 1-2 meses.

Mais importante ainda, a Zhipu realizou uma transformação fundamental de orientação por conhecimento para orientação por tarefas, fazendo do GLM um agente inteligente capaz de completar tarefas complexas de forma independente.

O núcleo dessa transformação é uma grande melhoria na capacidade de AI Coding.

Para modelos de linguagem, a capacidade de programação é a base para todas as capacidades de tarefas complexas. Saber escrever bem código significa que o modelo tem capacidade de lógica forte, planeamento forte e chamada de ferramentas forte; consegue decompor requisitos complexos em passos executáveis e, no fim, entregar resultados que podem ser aplicados na prática.

E o cenário de Coding é, neste momento, um dos cenários mais maduros para a monetização de modelos de linguagem, com maior intenção de pagamento. Cerca de 70%–75% das receitas da Anthropic vêm de chamadas relacionadas com geração de código.

A Zhipu captou com precisão esse núcleo.

O modelo GLM-5, lançado em fevereiro de 2026, conseguiu ainda um salto qualitativo de Vibe Coding para Agentic Engineering.

Em testes de referência globais e autorizados para programação, o GLM-5 obteve 77,8 pontos no SWE-bench-Verified e 56,2 pontos no Terminal Bench2.0, mantendo-se no primeiro lugar entre modelos abertos. A experiência de uso real já se aproxima do modelo emblemático Claude Opus 4.5 da Anthropic.

Na classificação global e autorizada de Artificial Analysis, o GLM-5 ficou em 4.º lugar global e em 1.º entre modelos abertos, apenas atrás de GPT, Claude e Gemini, e entrou firmemente no primeiro escalão global de IA.

O que merece ainda mais expectativa é que a Zhipu está também prestes a lançar o GLM-5.1.

Também propõe Força de Arquitetura de Token (TAC)

Esta demonstração financeira não é apenas o primeiro resultado após o IPO da Zhipu; é também uma reestruturação abrangente da Zhipu. Com dados concretos, faz o setor todo voltar a reconhecer a Zhipu e redefine o critério para medir o valor dos modelos de linguagem.

Nos últimos anos, toda a indústria de modelos de linguagem caiu num grande equívoco: todos competiam por ter mais parâmetros, por melhores pontuações de benchmark e por preços mais baixos, mas quase ninguém pensava sobre qual é realmente o valor central dos modelos de linguagem.

Mesmo que as pontuações sejam altas, se não forem aplicáveis a cenários reais, e se não conseguirem ajudar empresas e indivíduos a criar valor económico tangível, não têm sentido.

Foi precisamente com base neste juízo que, pela primeira vez, a Zhipu propôs o conceito de Força de Arquitetura de Token (Token Architect Capability, abreviado TAC) e apresentou um quadro tridimensional quantificável de valor de IA:

TAC = quantidade de inteligência de chamada × qualidade de inteligência × eficiência de conversão em valor económico

  • Quantidade: quantos Tokens as empresas e os indivíduos estão dispostos a chamar todos os dias, e quanta tarefa — e quanta carga de trabalho — estão dispostos a entregar ao AI para processar;

  • Qualidade: se esses Tokens vêm de modelos suficientemente inteligentes e fiáveis, e se conseguem, em tarefas complexas, entregar resultados que possam ser efetivamente entregues;

  • Eficiência: se as tarefas processadas por essas IAs conseguem realmente converter-se em resultados económicos mensuráveis, realizando efetivamente redução de custos e melhoria de eficiência.

A Zhipu conclui que, no futuro, a capacidade competitiva central das organizações e dos indivíduos dependerá cada vez mais do seu nível de TAC.

E o que a Zhipu quer fazer nunca foi apenas ser uma fábrica de modelos que “vende Tokens”, mas sim uma infraestrutura para elevar a capacidade TAC de toda a sociedade — uma base de capacidades para cada empresa, cada programador e cada indivíduo, permitindo converter inteligência em resultados económicos entregáveis.

A apresentação deste conceito marca que a indústria chinesa de modelos de linguagem entrou oficialmente numa nova fase de competição por arquitetura inteligente, saindo do “concurso de parâmetros”, da “luta de benchmarks” e do atoleiro de guerra de preços.

No passado, ao avaliar uma empresa de modelos de linguagem, olhávamos para a dimensão dos seus parâmetros e para o quanto tinha levantado em financiamento; no futuro, ao avaliarmos uma empresa de modelos de linguagem, precisamos olhar para quanto TAC consegue elevar para os clientes, e para quanto valor económico real consegue converter a inteligência.

E esta demonstração financeira da Zhipu é a melhor nota de rodapé deste novo tempo.

Quando toda a indústria troca dinheiro por escala e fluxo por preços baixos, a Zhipu já saiu de um ciclo comercial saudável: avanço técnico → desempenho em vantagem → poder de fixar preços → receitas escaláveis → lucros → reinvestimento em tecnologia.

Com esta demonstração financeira, a Zhipu prova que modelos de linguagem são um bom negócio capaz de criar valor e realizar lucro; e que as empresas chinesas de modelos de linguagem também conseguem trilhar um caminho próprio, competindo lado a lado com os melhores players globais.

Na segunda metade da indústria chinesa de modelos de linguagem, finalmente voltamos do ruído da guerra de preços ao caminho correto de tecnologia e de negócio.

Fonte: Quantum Jump

Aviso de risco e termos de isenção de responsabilidade

        Existem riscos no mercado; invista com prudência. Este artigo não constitui aconselhamento de investimento pessoal e não considera objetivos de investimento especiais, situação financeira específica ou necessidades de utilizadores individuais. Os utilizadores devem considerar se quaisquer opiniões, pontos de vista ou conclusões neste artigo são compatíveis com as suas situações específicas. Ao investir, a responsabilidade é sua.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar