Kimi n'a pas la clé de DeepSeek

文|阑夕

2024

Peut-être vous souvenez-vous qu’en 2024, pas si lointain, Kimi était le fer de lance brûlant de l’IA en Chine : levée de fonds de 1 milliard de dollars, des hausses plafonnées à répétition pour les actions “liées à Kimi”, une saisie de 2 millions de caractères qui écrase GPT, et une stratégie promotionnelle agressive de dépense publicitaire.

Mais à l’époque, leur niveau d’exposition dépassait largement leur influence technique.

En fait, ce modèle de 2 millions de caractères, plus tard, n’a pratiquement servi qu’à très peu de monde. Ensuite, j’ai compris que c’était un modèle expérimental : le coût d’exécution frôlait les 3 chiffres, et il n’avait absolument aucune possibilité d’offrir un service à grande échelle pour des utilisateurs.

À ce moment-là, le milieu de la technologie, vis-à-vis de Kimi, ne manifestait que du mépris.

Cependant, grâce à l’argumentaire des 2 millions de caractères, Kimi a tout de même réussi à s’imposer comme “étiquette Longue séquence” et à marquer durablement l’esprit des utilisateurs.

2025

Début 2025, DeepSeek a fait irruption, et est devenu, grâce à sa puissance technique réelle, l’ambassadeur de la technologie de l’IA en Chine.

À la mi-2025, Kimi n’avait plus aucun financement depuis près d’un an. Le “bad mouthing” est devenu le thème principal : les employés ont commencé à partir, et dans l’industrie, on a pratiquement prononcé une condamnation à mort à ce projet de startup.

Si vous avez fermé les yeux sur l’actualité à partir de la mi-2025 pendant 9 mois, puis que, en mars 2026, vous la rouvrez :

  • Valorisation récente de Kimi : 1 200 milliards ;
  • Les revenus de Kimi en 20 jours dépassent ceux de toute l’année précédente ;
  • Le modèle de Kimi a été “habillé” par l’outil d’IA de programmation le plus populaire, Cursor, avec une valorisation de 350 milliards, et cela a été confirmé (puisque vous étiez en retrait 9 mois, vous ne savez pas encore que l’outil d’IA de programmation le plus populaire est désormais Claude Code, Cursor est devenu le numéro deux) ;
  • Le nouveau modèle de Kimi transporte 20% du trafic sur l’internet, et sa capitalisation dépasse 5 000 milliards ; Cloudflare l’a introduit comme modèle principal ;
  • Le nouveau modèle de Kimi est devenu le seul modèle open source et le seul modèle chinois que Perplexity, la plus grande application de recherche IA indépendante au monde, a intégré ;
  • La nouvelle technologie de Kimi, “attention residuals”, commence à remodeler l’architecture d’apprentissage profond, en refondant les fondations depuis plus de 10 ans, et a reçu les éloges de l’ancien cofondateur d’OpenAI Andrej Karpathy, du père des modèles de raisonnement chez OpenAI Jerry Tworek, ainsi que de Musk ;
  • Yang Zhilin devient le représentant unique, parmi les sociétés chinoises indépendantes de grands modèles, à être invité à prononcer un discours à la conférence annuelle GTC 2026 de Nvidia…

Vous risquez fort d’en tomber sur le derrière.

Tout le monde dit : “En une journée, l’IA ; en un an, le monde.” Dans le domaine de l’IA, 9 mois, c’est effectivement assez pour que beaucoup de choses arrivent.

Mais au final, il y a une seule chose : le paradigme de la technologie de l’IA a changé. La façon la plus courante et la plus paresseuse de le résumer, c’est : passer de Chat à Agent.

Pour les 30 millions de programmeurs du monde entier, le changement, c’est que l’outil le plus admiré est passé de Cursor à Claude Code.

Pour les early adopters qui adoptent toujours en premier les nouvelles technologies, le changement, c’est d’ouvrir plus souvent ce terminal en noir et blanc, façon interface de type DOS…

Pour les sociétés d’IA, le changement, c’est que tout le monde a fini par découvrir : un modèle qui sait mieux discuter vaut bien moins qu’un modèle qui sait écrire du code et appeler des outils.

Le produit le plus cool est passé de ChatGPT à Claude Code ; la startup la plus cool est passée d’OpenAI à Anthropic.

Revenons au marché chinois du début 2025.

Le DeepSeek R1 explose car il reproduit et met en open source la capacité de “deep thinking” d’OpenAI o1. Un autre produit “Agent généraliste”, Manus, fait aussi son apparition…

À ce moment-là, la plupart des sociétés d’IA chinoises occupent leur temps à reproduire DeepSeek R1 et à sortir de nouveaux modèles capables de “deep thinking”. Quelques entreprises se rendent compte que le modèle derrière Manus est en réalité ce qui mérite davantage de “reproduction” et de ressources. Ou elles s’en rendent compte, mais n’ont pas reçu assez de ressources, ou n’ont pas trouvé de méthode.

Une grande valeur de Manus, c’est qu’il présente visuellement les capacités de Claude à appeler des outils sur plusieurs tours. Comme un expert technique d’une entreprise de grands modèles l’a écrit dans son propre blog : “La grande majorité des produits Agent, sans Claude, ne sont rien de plus.”

Jusqu’à juillet 2025, le premier modèle en Chine misant sur la capacité Agent n’apparaît que très discrètement. Le 11 juillet, Kimi K2 est publié : ils annoncent “Open Agentic Intelligence”. Il est évident qu’ils y cachent leur ambition : reproduire les capacités Agent du modèle Claude et les ouvrir en open source. Comme DeepSeek R1 qui reproduit OpenAI o1 et l’ouvre en open source.

5 jours après la sortie, le 16 juillet, la revue Nature, au Royaume-Uni, découvre la valeur de ce modèle, et le décrit comme “un autre moment DeepSeek”.

10 jours après la publication, le 21 juillet, Jack Clark, cofondateur d’Anthropic, présente K2 sur son blog personnel, avec l’évaluation suivante :

À mon avis, Kimi est un modèle assez correct ; il accuse un retard de quelques mois sur le tout dernier état de l’art aux États-Unis, et prolonge la trajectoire de DeepSeek. Ses scores en encodage et en appel d’outils sont suffisamment élevés ; je pense qu’en pratique, des gens vont réellement l’utiliser, et donc observer son taux d’adoption permettra de refléter sa compétitivité.

Vers la fin juillet, dans une interview sur podcast, Yang Zhilin explique pourquoi K2 n’a pas commencé d’abord par “deep thinking”, mais s’est concentré sur les capacités de programmation et d’appel d’outils nécessaires aux Agents. Il décrit les modèles axés sur le deep thinking comme un “cerveau dans une cuve”. Au fait, l’interview de Yang Zhilin vaut vraiment la peine d’être lue plusieurs fois : il parle de nombreuses choses plus essentielles sur le plan technique, par exemple la relation entre la programmation et l’Agent, ou celle entre la pensée et l’appel d’outils.

En raison des performances de K2 et des modèles K2 Thinking qui ont suivi, le financement de Kimi est finalement relancé à la fin de l’année : 500 millions de dollars ; IDG et plusieurs anciens actionnaires continuent de soutenir.

2026

Autour du Nouvel An chinois 2026, pendant cette folie de publication de grands modèles, Kimi est le premier à rendre sa copie. Peut-être est-ce aussi celui qui rend le plus inconfortables ses concurrents, parce que K2.5, avec ses 120B de paramètres et ses capacités multimodales de compréhension d’images et de vidéos, supporte des modes à la fois de “pensée” et sans “pensée”. Les autres startups concurrentes publient des modèles de texte pur. Seules les grandes entreprises, avec des modèles fermés, ont la force d’intégrer des capacités multimodales dans un modèle phare.

Le 16 mars, l’équipe Kimi publie une note technique sur Attention Residuals, défiant le mécanisme de connexion résiduelle des couches sous-jacentes de réseaux de neurones, qui a déjà 10 ans d’histoire. L’ancien cofondateur d’OpenAI Andrej Karpathy critique vivement Kimi : “Cela nous fait réaliser que nous n’avons même pas compris en profondeur Attention is All You Need.” Il faut savoir que Attention is All You Need est le Graal qui a lancé l’ère des grands modèles ; même en tenant compte de l’inflation des mots dans le secteur de l’IA, cette évaluation est sans précédent, extrêmement élevée. On dit que le premier auteur de l’article est un lycéen de seulement 17 ans : un prodige, vraiment impressionnant et émouvant.

Le 17 mars, après avoir déjà brillé en début d’année à la CES 2026, le modèle Kimi revient à nouveau sur scène : lors du discours-programme principal de GTC 2026 de Huang Renxun, il redevient le modèle “de choix” pour que Nvidia montre sa prochaine génération de puces et de performances d’inférence.

Le 18 mars, en tant que seul représentant invité de la société chinoise indépendante de grands modèles à la conférence annuelle GTC de Nvidia, la conférence sur place de Yang Zhilin contient que des informations utiles : d’entrée de jeu, il compare les trois modules essentiels que sont l’optimiseur, le mécanisme d’attention et la connexion résiduelle à des standards technologiques vieillissants, vieux de 8 à 11 ans, et affirme que ce sont des obstacles pour continuer le Scaling. Il utilise de nouvelles percées technologiques pour montrer que “chaque technologie de base mérite d’être repensée”.

Puis viennent ces “affaires Cursor” dont tout le monde a déjà connaissance ces jours-ci : comment quelqu’un n’y aurait pas pensé ? Le Cursor, plus grand assistant de programmation du monde avec une valorisation de 50 milliards de dollars, sort son nouveau modèle de programmation de grande ampleur Composer 2 : avec des scores de tests supérieurs à Claude Opus 4.6… et pourtant, il s’avère que c’est un habillage de Kimi K2.5…

En tant que “médiateur de tokens”, Cursor a besoin de s’efforcer de faire du “développement en interne”, principalement pour se libérer de sa forte dépendance à Anthropic et OpenAI. Cette situation de “goulot d’étranglement” ne connaît aucune frontière nationale : Anthropic a aussi, de fait, déjà coupé l’approvisionnement pour des outils de programmation comme Windsurf. Dans un environnement où Cursor est à la fois arbitre et joueur, la motivation de Cursor à vouloir être plus autonome est parfaitement compréhensible.

Mais l’immense fossé entre capacités et vision a conduit Cursor à choisir d’effacer le nom du modèle de base venant de Kimi, et à chercher du financement en s’appuyant sur un travail de “ghostwriting”. À la fin, l’affaire s’est tout de même terminée de manière assez élégante : le cofondateur de Cursor présente des excuses publiques ; dans le rapport technique, il fournit des raisons détaillées expliquant le choix de Kimi K2.5 comme modèle de base ; et du côté officiel de Kimi, on répond en disant qu’on est très heureux que Cursor utilise Kimi K2.5 comme base, et que les deux parties ont conclu une autorisation technique via le prestataire de services d’inférence Fireworks AI.

Selon des rumeurs, autour du Nouvel An chinois 2026, Kimi finalisera progressivement un financement pour une valorisation de 4,8 milliards de dollars avant l’investissement, puis 6 milliards de dollars, puis 10 milliards de dollars, portant le montant total à près de 2 milliards de dollars. La tranche de 18 milliards de dollars ouverte en mars devra ensuite patienter avant d’être obtenue.

Bien sûr, cela bénéficie aussi de la performance exceptionnelle de deux concurrents cotés à Hong Kong ; mais plus important encore, c’est grâce à la performance réelle de leur propre K2 et des modèles suivants, y compris le “nectar” continu envoyé par Cursor, Cloudflare, Perplexity, Huang Renxun, Musk, Marc Andreessen, Chamath, etc., depuis le précédent sujet des banques de sujets, ainsi que la performance financière : 20 jours de revenus après la sortie de K2.5 dépassent ceux de l’année précédente.

Un ami de Kimi, lors d’une discussion privée, a dit que la seule chose qui limite le développement de l’activité, c’est la puissance de calcul : au moins 10 fois la demande n’a pas encore été satisfaite. Avec combien de cartes, on peut obtenir autant de revenus. D’après ce que j’ai appris auprès d’un ami qui travaille dans une autre grande entreprise, certaines grandes entreprises, dans leurs outils de programmation, doivent même passer par des précommandes pour obtenir suffisamment de quotas, afin d’utiliser le modèle Kimi.

Ces 9 mois, Kimi a en quelque sorte réussi une “transformation renversante du destin”.

Destin

DeepSeek V3 n’a pas été forgé en une seule journée. Le gène de quantification Fangfang derrière lui a décidé qu’à partir de 2023, ils emprunteraient un chemin absolument différent de celui de la Silicon Valley : un rapport efficacité/consommation énergétique extrême. Pendant la majeure partie de 2023 à 2024, ils ont navigué en dehors du récit dominant, se consacrant au développement interne de MLA (Mécanisme d’attention latente pour plusieurs têtes) et de l’architecture DeepSeekMoE, cherchant à extraire, avec une puissance de calcul limitée, des performances qui dépassent les limites physiques. Jusqu’à ce qu’en 2025 ils réussissent enfin à se prouver à eux-mêmes—et cela a aussi donné confiance aux autres startups d’IA.

Tout le monde s’attend à ce que la prochaine génération de modèles de DeepSeek continue de surprendre, mais les “au loup !” répétés à maintes reprises dans les médias ne font que dissiper l’attention du public. Les percées techniques, est-ce que c’est facile ? Nous avons pleinement raison d’avoir encore plus de patience et d’attendre le prochain travail de l’équipe DeepSeek.

Kimi K2 non plus n’a pas été forgé en une seule journée. En réalité, ils ont publié en même temps que DeepSeek R1 un modèle K1.5 sans que personne ne le remarque. OpenAI a ensuite classé ces deux entreprises comme étant parmi les premières à reproduire o1. En début 2025, au moment où ils étaient les plus durement “attaqués”, ils ont publié la série Moonlight : de petits modèles MoE, destinés à valider la prochaine génération de la technologie du second optimiseur d’ordre. Et finalement, ils l’ont appliquée au modèle K2, à l’échelle du billion. À présent, Muon a remplacé Adam, la technologie standard utilisée depuis 10 ans : c’est désormais un nouveau standard que les nouveaux modèles de Kimi, GLM-5, DeepSeek Engram, et d’autres commencent à adopter.

En somme, “quand on sort pour se battre, on doit de toute façon rendre des comptes.” Kimi a profité en avance, dès 2024, du poste central et de l’exposition, mais en 2026, il n’a plus reproduit ce trafic qui lui appartenait.

Chacun a son destin.

En tant que deux startups parties presque en même temps, je les admire pour ce courage et cette fougue juvénile qui se voient dans leurs actes : ne jamais considérer que la configuration du marché est déjà figée, croire que la technologie reste la plus grande variable, oser poursuivre l’AGI. Avec des résultats à vérifier, et une confiance constante dans le long terme et la progression régulière.

Même en regardant le jalon de fin mars 2026, la révolution de l’IA qui a commencé fin 2022 n’a encore duré que 3 ans et demi. Tout ne fait que commencer. Pourquoi le prochain OpenAI et Anthropic ne pourraient-ils pas être une entreprise chinoise ?

Des informations massives, des analyses précises : le tout dans l’application Sina Finance APP

Responsable : Yang Ci

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler