Nvidia part de marché en forte baisse, où se trouvent les opportunités dans la nouvelle phase de la révolution IA ? C’est le neuvième article de la série « 100 articles sur l’investissement en IA ».


Les précédents articles ont examiné Intel, AMD, ARM. Leurs cours ont tous connu une croissance significative au cours de la dernière année — AMD a doublé, Intel a triplé, ARM a également atteint des sommets historiques. Après cette hausse, une question simple se pose :
Est-ce qu’on peut encore conserver ces actions déjà montantes ? Y a-t-il encore des opportunités dans celles qui n’ont pas encore augmenté ?
Pour répondre à cette question, un mot-clé incontournable est — le raisonnement. Dans l’analyse de ces entreprises, ces deux mots reviennent sans cesse.
Alors : quelle est l’ampleur du marché du raisonnement ? À quel stade en est-on actuellement ? Quelles entreprises en bénéficieront ? Quelles sont déjà évaluées par le marché, et lesquelles ne le sont pas ?
C’est le neuvième article de la série « 100 articles sur l’investissement en IA », d’environ 15 000 mots, riche en contenu mais facile à lire. Il est conseillé de le sauvegarder d’abord, puis de le lire.
1. Quelle est la taille du marché ?
L’entraînement des modèles consiste à « écrire des programmes », le raisonnement est « le processus par lequel ce programme est appelé chaque jour ». Après l’entraînement de GPT, des centaines de millions de personnes l’interrogent quotidiennement, chaque question consommant de la puissance de calcul pour le raisonnement.
Claude Code exécute une tâche, un agent tourne en boucle une centaine de fois, chaque boucle étant un raisonnement.
Plusieurs études sectorielles et médias convergent vers une même idée : après la mise en production des modèles, le raisonnement deviendra la majeure partie du coût du cycle de vie, avec une estimation courante entre 80 et 90 %.
Autrement dit, dans la facture de puissance de calcul de l’ère IA à venir, 8 euros sur 10 seront consacrés au raisonnement.
Mais, au cours des trois dernières années, le marché a presque exclusivement discuté de l’entraînement, car c’est une histoire plus « sexy » — qui parle de qui possède le plus de H100, de qui a le plus de paramètres, ou de qui a entraîné le premier le modèle de nouvelle génération. Le raisonnement était considéré comme une étape secondaire, une fois l’entraînement terminé.
Ce biais de perception est en train d’être corrigé, et c’est précisément la raison fondamentale pour laquelle ces entreprises de semi-conducteurs ont été réévaluées au cours de la dernière année.
Alors, le marché du raisonnement est grand, mais quelle en est réellement l’ampleur ? On peut l’estimer selon cinq angles.
Premier : le nombre d’utilisateurs. ChatGPT compte 900 millions d’utilisateurs actifs hebdomadaires, 50 millions payants. La comparaison avec la Chine est plus directe — le volume d’appels de tokens quotidiens est passé de 100 milliards début 2024 à 140 000 milliards en 2026, soit une multiplication par 1400. Ce secteur n’est pas encore saturé.
Deuxième : l’intensité d’utilisation. La quantité de tokens traités par OpenAI était encore de 6 milliards par minute en octobre 2025, elle est passée à 15 milliards en avril 2026 — en six mois, une multiplication par 2,5.
Les revenus de la version entreprise représentent plus de 40 %, et l’intensité d’utilisation des utilisateurs professionnels est plusieurs dizaines de fois supérieure à celle des consommateurs.
Troisième : la longueur des dialogues. La longueur du contexte est passée de quelques centaines de tokens dans les premières versions à 1 million dans la documentation API V4 Pro / Flash de DeepSeek, avec une sortie maximale de 384 000. Plus le contexte est long, plus la consommation de mémoire et de puissance pour le raisonnement est élevée.
Quatrième : la puissance de calcul nécessaire pour le modèle lui-même augmente. Les modèles de raisonnement comme OpenAI o1, DeepSeek R1, Claude Thinking, avant de répondre, « réfléchissent » en interne sur plusieurs milliers, voire dizaines de milliers de tokens. Jensen Huang a mentionné, en prenant DeepSeek R1 en exemple, que le raisonnement pourrait nécessiter une puissance de calcul bien plus grande, jusqu’à cent fois plus.
Autrefois, vous posiez une question à l’IA, elle donnait directement la réponse ; maintenant, pour une question complexe, l’IA doit d’abord réfléchir une demi-minute avant de répondre. Ce « temps de réflexion » supplémentaire correspond à une consommation accrue de puissance.
Cinquième : les agents. Une tâche d’agent nécessite généralement 10 à 100 appels au modèle. Le nombre d’utilisateurs actifs hebdomadaires de Codex d’OpenAI a dépassé 4 millions (au 22 avril 2026) — ce n’est qu’un produit d’une seule entreprise. Selon un expert de la chaîne de valeur IA, la consommation totale de puissance pour une intelligence artificielle autonome pourrait dépasser de plus de 10 fois celle d’un grand modèle de langage à paramètres équivalents.
En multipliant ces cinq facteurs, la demande totale de raisonnement pourrait connaître une expansion de plusieurs ordres de grandeur en trois à cinq ans. Ce n’est pas une exagération, mais une tendance de plus en plus majoritaire.
« Où se trouvent les opportunités dans la nouvelle phase de la révolution IA, alors que la part de marché de Nvidia en raisonnement diminue fortement ? »
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler