Kimi não tem a sorte com DeepSeek

文|阑夕

2024

Talvez te lembres, no ainda não tão distante ano de 2024, de que a Kimi era o AI chinês em grande destaque: financiamento de 1 mil milhões de dólares, várias subidas do conceito “Kimi” até ao limite em bolsa, entrada de 2 milhões de palavras que esmagou o GPT e uma estratégia arrojada de investimento em anúncios para impulsionar a divulgação.

Mas a visibilidade de que beneficiaram na altura foi muito superior ao seu impacto tecnológico.

Na verdade, aquele modelo de 2 milhões de palavras tinha, mais tarde, um público utilizador quase inexistente. Mais tarde, soube-se que se tratava de um modelo experimental: o custo de cada execução rondava os três dígitos e não tinha qualquer possibilidade de servir utilizadores em grande escala.

Na altura, o meio técnico olhou para a Kimi com desprezo.

Mas apoiada no pretexto das 2 milhões de palavras, a Kimi ainda conseguiu afirmar-se com a etiqueta de “longa duração” de textos e conquistar o “know-how” dos utilizadores.

2025

No início de 2025, a DeepSeek surgiu de repente, tornando-se verdadeiramente a representante da tecnologia de IA na China com base na força técnica.

Por volta de meados de 2025, circulava a notícia de que a Kimi já não tinha qualquer financiamento há quase um ano. Ser “descredibilizada” tornou-se a narrativa principal: começaram a perder-se trabalhadores e, na indústria, quase se condenava este projeto de arranque à pena de morte.

Se partires de meados de 2025 e fizeres isolamento durante 9 meses, e em março de 2026 veres as notícias:

  • Avaliação mais recente da Kimi: 120B;
  • A receita da Kimi em 20 dias ultrapassou a do ano anterior;
  • O modelo da Kimi foi “colocado por cima” (com prova) no Cursor, a ferramenta de programação de IA mais popular avaliada em 350B (como estiveste em isolamento durante 9 meses, não sabes que a ferramenta de programação de IA mais popular já é o Claude Code; o Cursor já virou o número dois);
  • O novo modelo da Kimi transporta 20% do tráfego da Internet como motor, com a capitalização a ultrapassar 25k: a Cloudflare introduziu-o como modelo principal;
  • O novo modelo da Kimi tornou-se o único modelo open source e o modelo chinês que a Perplexity, a maior aplicação global independente de pesquisa em IA, introduziu;
  • A nova tecnologia da Kimi, “attention residuals”, começou a remodelar a arquitetura de aprendizagem profunda na base construída ao longo de mais de 10 anos e recebeu elogios do então cofundador da OpenAI, Andrej Karpathy, do pai do modelo de inferência da OpenAI, Jerry Tworek, e também de Elon Musk;
  • Yang Zhulin tornou-se o único representante de uma empresa global independente de grandes modelos convidada para fazer uma apresentação na conferência anual da Nvidia em 2026 GTC……

É bem provável que fiques de boca aberta.

Toda a gente dizia “um dia de IA, um ano no mundo”; na verdade, na área de IA, em 9 meses aconteceram muitas coisas.

Mas, no fim, há uma única questão: o paradigma da tecnologia de IA mudou. A forma mais comum e também mais preguiçosa de o resumir é: de Chat para Agent.

Para os 30 milhões de programadores no mundo, a mudança é que a ferramenta mais respeitada deixou de ser Cursor e passou a ser Claude Code.

Para os early adopters, que são sempre os primeiros a abraçar novas tecnologias, a mudança é abrir com mais frequência aquele terminal de linha de comandos preto e branco, parecido com um sistema DOS……

Para as empresas de IA, a mudança é que toda a gente vai descobrindo, passo a passo, que um modelo que “sabe conversar melhor” vale muito menos do que um modelo que “sabe escrever código e chamar ferramentas”.

O produto mais cool passou de ChatGPT para Claude Code; a startup mais cool passou de OpenAI para Anthropic.

Voltemos ao mercado chinês no início de 2025.

O DeepSeek R1 ficou enorme porque, ao replicar e disponibilizar em open source a capacidade de “pensamento profundo” do OpenAI o1, explodiu. E o outro produto de “Agent genérico”, o Manus, também surgiu de forma repentina……

Naquela altura, a maioria das empresas de IA na China estava ocupada a reproduzir o DeepSeek R1 e a lançar novos modelos que tinham “pensamento profundo”. Poucas empresas perceberam que o modelo por detrás do Manus era aquilo que valia mais a pena “reproduzir” consumindo recursos. Ou até perceberam, mas não lhes foram atribuídos recursos suficientes, ou não encontraram uma forma.

Um dos grandes valores do Manus é que ele torna visível o desempenho de chamadas de múltiplas ferramentas em várias voltas do modelo da Claude. Tal como um especialista em tecnologia de uma empresa de grandes modelos escreveu no seu próprio blogue: “a esmagadora maioria dos produtos de Agent, sem Claude, não é nada”.

Só até julho de 2025, apareceu discretamente o primeiro modelo na China com capacidade focada em Agent. A 11 de julho, a Kimi lançou o K2, com o slogan Open Agentic Intelligence. Aqui, claramente escondia-se a ambição: replicar a capacidade de Agent dos modelos da Claude e disponibilizá-la em open source. Tal como o DeepSeek R1 replicou o OpenAI o1 e o disponibilizou em open source.

Cinco dias após o lançamento, a 16 de julho, a revista britânica Nature descobriu o valor deste modelo e descreveu-o como “outro momento DeepSeek”.

10 dias após o lançamento, a 21 de julho, o cofundador da Anthropic, Jack Clark, apresentou o K2 no seu próprio blogue, avaliando:

“A meu ver, a Kimi é um modelo razoável. Ficou alguns meses atrás da fronteira mais avançada dos EUA e segue a trajetória do DeepSeek. As suas pontuações de codificação e de chamadas de ferramentas já são suficientemente altas; na prática, acredito que alguém o vai usar de verdade. Assim, observar a taxa de adoção pode refletir a competitividade.”

No fim de julho, durante uma entrevista em podcast, Yang Zhulin explicou por que razão o K2 não começou por “pensamento profundo”, e sim por apostar nas capacidades de programação e chamadas de ferramentas que um Agent exige. Ele usou a expressão “cérebro numa tina” para caracterizar os modelos focados em pensamento profundo. E a propósito: a entrevista de Yang Zhulin vale a pena ser lida várias vezes; ele falou de muitos aspetos técnicos mais essenciais, como a relação entre programação e Agent e a relação entre pensamento e chamadas de ferramentas.

Devido ao desempenho do K2 e dos modelos subsequentes K2 Thinking, o financiamento da Kimi foi finalmente renovado no fim do ano: 500 milhões de dólares, com o apoio continuado do IDG e de alguns antigos acionistas.

2026

Por volta da altura do Ano Novo Chinês de 2026, neste período louco de lançamentos de grandes modelos, a Kimi foi a primeira a entregar a prova. Possivelmente foi também a que mais deixou os concorrentes desconfortáveis, porque o K2.5 com 10 biliões de parâmetros, capacidades multimodais de compreensão de imagens e vídeo, suporta modos de pensamento e sem pensamento. Os outros concorrentes em fase de arranque lançaram apenas modelos de texto puro. Com poder para integrar capacidades multimodais no modelo de topo, apenas os grandes fabricantes com modelos fechados.

A 16 de março, a equipa da Kimi publicou um artigo técnico sobre Attention Residuals, desafiando o mecanismo de ligações residuais da base de redes neurais com 10 anos de história. O cofundador da OpenAI, Andrej Karpathy, criticou duramente a Kimi: “faz-nos perceber que não chegámos a compreender, de facto, o Attention is All You Need”. Convém lembrar que o Attention is All You Need é o Santo Graal que abriu a era dos grandes modelos. Mesmo considerando o inchaço das expressões comuns na comunidade de IA, esta avaliação é sem precedentes na sua altura elevada. Diz-se que o primeiro autor do artigo era um estudante do ensino secundário, com apenas 17 anos; um génio que saiu cedo da adolescência—realmente dá que pensar.

A 17 de março, após o CES 2026 no início do ano, os modelos da Kimi voltaram a ser escolhidos, no discurso principal do GTC 2026 da Huang Renxun, para a Nvidia mostrar chips da próxima geração e desempenho de inferência.

A 18 de março, como o único representante convidado da empresa chinesa independente de grandes modelos na conferência anual GTC da Nvidia, o discurso de Yang Zhulin em direto foi tudo “conteúdo técnico”. Começou por comparar os três módulos principais—otimizador, mecanismo de atenção e ligações residuais—com padrões tecnológicos antiquados com 8-11 anos de história; são obstáculos para continuar o Scaling. E então, através de avanços tecnológicos, demonstrou que “cada uma destas tecnologias base merece ser repensada”.

Depois veio o “escândalo do Cursor”, agora de conhecimento geral nos últimos dias. Quem teria pensado que, o Cursor, o maior assistente de programação do mundo com uma avaliação de 500 mil milhões de dólares, ao lançar o pesado modelo de programação de próxima geração Composer 2—com resultados de testes a superar Claude Opus 4.6—acabaria por ser um invólucro (shell) do Kimi K2.5……

Por ser o Cursor posicionado como intermediário de tokens, por isso precisa de dar força à via de “desenvolvimento próprio”; principalmente é para se libertar da sua dependência elevada da Anthropic e da OpenAI. “apertar o pescoço” não tem fronteiras de país; a Anthropic também já cortou fornecimento de ferramentas de programação como o Windsurf. Num ambiente em que ao mesmo tempo se é árbitro e atleta, o desejo do Cursor de ser independente e autossuficiente é totalmente compreensível.

Mas a enorme diferença entre capacidades e visão fez com que o Cursor escolhesse apagar o nome do modelo base proveniente da Kimi, recorrer a um “escritor fantasma” para pedir financiamento. No final, as coisas acabaram por terminar de forma relativamente digna: o cofundador do Cursor pediu publicamente desculpas, e no relatório técnico deu motivos detalhados para a escolha do Kimi K2.5 como modelo base, enquanto a resposta oficial da Kimi afirmou que estava satisfeita por o Cursor usar o Kimi K2.5 como base, e que ambas as partes concederam licenças técnicas através do provedor de serviços de inferência Fireworks AI.

Segundo rumores, por volta do Ano Novo Chinês de 2026, a Kimi concluiu, de forma faseada, levantamentos de fundos com avaliações de 4,8 mil milhões, 6 mil milhões e 10 mil milhões de dólares antes do investimento, somando um total próximo de 2 mil milhões de dólares; a ronda de 18 mil milhões de dólares, iniciada em março, também ainda terá de enfileirar para ser obtida.

Isto, claro, também beneficiou do desempenho excecional de dois concorrentes em ações listadas em Hong Kong, mas o mais importante foi o desempenho real do próprio K2 e dos modelos subsequentes: incluindo o Cursor mencionado antes, Cloudflare, Perplexity, Huang Renxun, Musk, Mark Anderson, Chama Zhi e outros continuamente a enviarem “água dourada”; e também o desempenho financeiro em que, após 20 dias do lançamento do K2.5, a receita ultrapassou a do ano anterior.

Um amigo da Kimi disse numa conversa privada que o que limita o desenvolvimento do negócio é apenas a capacidade de computação. Agora, pelo menos ainda há uma procura de 10x que não foi satisfeita. Quantos chips existem, há quantas receitas. Pelo que entendi de um amigo meu que trabalha numa empresa de grande porte, agora algumas dessas grandes empresas que integram o modelo da Kimi em ferramentas de programação até precisam fazer pré-encomenda para obter quantidade suficiente.

Nesses 9 meses, a Kimi pode dizer-se que fez uma reviravolta insana.

Destino

O DeepSeek V3 não foi feito num dia. Os genes de quantificação da sua empresa por trás, determinam que desde 2023 eles tenham seguido uma via de eficiência energética extrema que é completamente diferente do Vale do Silício. Durante a maior parte do período de 2023 a 2024, ficaram à margem das narrativas principais, focando-se em desenvolver internamente o MLA (mecanismo de atenção potencial de múltiplas cabeças) e a arquitetura DeepSeekMoE, tentando espremer, com capacidade de computação limitada, um desempenho que ultrapassasse o limite físico. Só em 2025 é que alcançaram o sucesso, e isso também trouxe confiança a outras startups de IA.

Toda a gente espera que a próxima geração de modelos do DeepSeek continue a surpreender toda a gente, mas as “bocas do lobo” repetidas vezes nos media acabam por apenas desgastar a atenção de todos. As inovações técnicas, como é óbvio, não são assim tão fáceis. Temos todos razões para ter mais paciência e aguardar o próximo trabalho da equipa do DeepSeek.

O Kimi K2 também não foi feito num dia. Na verdade, eles lançaram, no mesmo dia que o DeepSeek R1, o modelo K1.5 que passou despercebido. A OpenAI oficial considerou que eram uma das duas empresas que primeiro tinham conseguido replicar o o1. Em 2025, quando foram descredibilizados ao máximo, lançaram a série Moonlight de modelos MoE de pequena dimensão, para validar a tecnologia de um otimizador de segunda ordem da próxima geração—e que por fim foi aplicada ao modelo K2 com escala de biliões. Agora, o Muon substituiu o padrão técnico Adam que era usado há 10 anos, tornando-se o novo padrão que os novos modelos da Kimi, da GLM-5 e do DeepSeek Engram começam a adotar.

Diz-se que “quem sai para lutar, acaba por ter de devolver”. A Kimi, em 2024, aproveitou antecipadamente a posição central © e a exposição; em 2026, não voltou a replicar o fluxo de tráfego que lhe pertencia.

Cada um tem o seu destino.

Sendo duas startups que começaram quase ao mesmo tempo, eu admiro essa coragem deles: nunca considerar que o panorama de mercado já estava definido; acreditar que a tecnologia é a maior variável; e ousar perseguir a AGI. Com resultados verificáveis, juventude e energia, e sempre acreditar na força de um “crescimento constante e de longo prazo”.

Mesmo olhando para o fim de março de 2026, este ciclo de revolução da IA que começou no final de 2022 só durou 3 anos e meio—está tudo apenas a começar. Porque é que a próxima OpenAI e a Anthropic não podem ser uma empresa chinesa?

Há toneladas de notícias, interpretações precisas—tudo na app da Sina Finance

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar