« Homard » prolonge considérablement la « mémoire » ?

robot
Création du résumé en cours

Avec l’agent AI OpenClaw en tête, les outils d’intelligence artificielle agentic (Agentic AI) poussent la logique de la demande sur le marché de la mémoire vers un tout nouveau paradigme. Selon des sources de la plateforme Chasing Wind Trading, le dernier rapport publié par Morgan Stanley le 18 mars indique : L’IA passant de “penser” à “exécuter” fera que la DRAM remplacera la HBM comme le goulot d’étranglement le plus difficile à franchir dans l’infrastructure de l’IA, prolongeant la cycle de vie de la mémoire bien au-delà des attentes.

Les enquêtes de marché montrent qu’en deuxième trimestre 2026, le prix de la DRAM DDR5 pour serveurs devrait augmenter de plus de 50 % en glissement mensuel, avec certains grands fournisseurs cloud chinois proposant des prix encore plus élevés ; les prix contractuels de la DDR4 devraient augmenter de 40 à 50 %, et les prix des SSD d’entreprise NAND pourraient augmenter d’au moins 40 à 50 %. Morgan Stanley estime que, nous sommes actuellement au milieu du cycle haussier de la mémoire, avec un resserrement de l’offre supérieur à ce qui était prévu — “Les prévisions de bénéfices de Wall Street devront rattraper la réalité”.

Ces jugements se reflètent directement dans l’ajustement des objectifs de prix : SK Hynix a relevé ses prévisions de BPA pour 2026-2027 de 24 % et 32 % respectivement, avec un objectif de prix passant de 1,1 million de won à 1,3 million de won, offrant un potentiel de hausse implicite de 43 % par rapport au prix actuel ; l’objectif de prix pour les actions ordinaires de Samsung Electronics a été porté à 251 000 won, avec les deux actions maintenant une note de “surperformance”.

Le jugement central de Morgan Stanley est : le marché a l’habitude de penser de manière linéaire, mais la capacité de l’IA à s’étendre à un niveau exponentiel — lorsque l’IA passe de “générer des réponses” à “accomplir des tâches”, la demande en mémoire va exploser, et ce changement ne fait que commencer à accélérer.

Faire des choses consomme plus de mémoire que de penser


Le raisonnement de Morgan Stanley commence par une déclaration apparemment simple mais profondément significative : “Faire des choses nécessite plus de DRAM que de penser.”

Le mode de fonctionnement traditionnel des grands modèles de langage (LLM) est un processus linéaire dominé par le GPU : réception de questions, traitement en lot de tous les tokens d’entrée (phase de pré-remplissage), puis génération de réponses token par token (phase de décodage), le CPU étant responsable de convertir le résultat en texte. Dans ce processus, la puissance de calcul du GPU est le goulot d’étranglement déterminant, la DRAM se contentant de gérer la lecture/écriture du cache.

L’émergence de l’agent AI a complètement changé cette logique. Prenons OpenClaw comme exemple : cet assistant AI open source hébergé peut se connecter simultanément à plus de 50 plateformes de messagerie telles que WhatsApp, Telegram, Slack, Signal, et dispose de permissions système pour l’automatisation du navigateur, la manipulation de fichiers, l’exécution en ligne de commande, l’appel d’API, etc. Il ne s’agit pas simplement de “répondre à des questions”, mais de “réaliser des tâches” — rechercher sur le web, lire des documents, appeler des outils externes, exécuter du code, et produire en fin de compte une série de résultats d’action issus d’une collaboration multi-étapes.

La transformation paradigmatique repose sur une technologie clé : le flux de travail passe d’une inférence GPU unique à une coordination multi-étapes, à l’appel d’outils et à l’orchestration, où le temps de calcul du CPU contribue souvent plus à la latence globale que celui du GPU. Par ailleurs, les multiples agents doivent partager en continu le contexte, décharger le cache KV (Key-Value), stocker et récupérer les résultats intermédiaires — la mémoire passant du simple maillon de puissance de calcul à un goulot d’étranglement central.

OpenClaw : la loupe extrême sur la demande en mémoire


Morgan Stanley a effectué une analyse détaillée de la demande en mémoire d’OpenClaw, concluant que : dans ce type d’outils agentic, la DRAM domine tout, les autres contraintes matérielles étant reléguées au second plan.

L’outil fonctionne selon deux modes d’opération très différents :

Mode passerelle légère (appel à distance à Claude, GPT-4 ou autres API externes) : même dans ce cas, le goulot d’étranglement n’est pas le GPU ou le CPU, mais l’utilisation de la DRAM par l’environnement d’exécution Node.js. En pratique, un minimum de 2 Go de DRAM est nécessaire, avec une configuration recommandée de 4 Go pour une stabilité en production.

Mode modèle local (chargement et exécution directe du modèle AI sur la machine) : la DRAM système et la HBM graphique deviennent des contraintes doubles. Morgan Stanley recommande 32 Go de DRAM système ; pour faire fonctionner des modèles de 7 à 8 milliards de paramètres, il faut 8 Go supplémentaires de DRAM graphique ; pour des modèles de 13 à 70 milliards de paramètres, 16 à 24 Go sont nécessaires. Les très grands modèles comme Llama 3 70B ou Qwen 72B nécessitent plus de 80 Go.

Le rapport souligne en particulier : le manque de mémoire ne se traduit pas par une baisse de performance, mais par un crash immédiat — JavaScript renverra une erreur “heap out of memory” (débordement de la mémoire heap), entraînant l’échec de l’installation ou l’interruption du fonctionnement. Ce détail révèle profondément la contrainte matérielle que représente la mémoire dans les scénarios d’agents : une mémoire insuffisante n’est pas lente, elle est “mortelle”.

Migration du goulot de bottleneck : de la HBM à la mémoire système


La caractéristique de la demande en mémoire d’OpenClaw illustre une transformation structurelle plus large.

Morgan Stanley indique que le goulot de bottleneck en puissance de calcul IA migre de manière systémique : il passe de la puissance de calcul elle-même à la gestion des transferts de données, de la HBM à la mémoire système (DRAM). La hiérarchie mémoire évolue d’une architecture centrée sur la HBM vers une structure multi-niveaux combinant HBM, DRAM et SSD NVMe NAND.

Ce changement est en partie motivé par l’explosion de la demande pour des contextes longs (long context). Le cache KV croît linéairement avec le nombre de tokens, et dans les scénarios de raisonnement distribué (pré-remplissage/décodage disaggregé), il doit être transféré via le réseau, augmentant considérablement la charge d’I/O du CPU. Les opérations clés des agents, telles que la recherche RAG ou la gestion du contexte, impliquent une gestion intensive de la mémoire et des I/O.

Les confirmations du marché sont également claires. Selon Morgan Stanley, Intel et AMD ont récemment confirmé que les processeurs serveurs à nombreux cœurs sont en pénurie réelle ; la part des revenus des CPU AMD EPYC dans le total des CPU serveurs a dépassé 40 % pour la première fois, avec une croissance YoY de plus de 50 % pour les instances cloud équipées d’EPYC. Nvidia a lancé le CPU Vera en vente séparée, et a conclu un accord pluriannuel avec Meta pour déployer des CPU indépendants dans des scénarios à grande échelle pour supporter les agents personnels.

Prix en accélération : milieu du cycle, espace restant


Ces transformations structurelles se reflètent également concrètement dans les prix.

Concernant la DRAM, au deuxième trimestre 2026, le prix de la DDR5 pour serveurs a déjà été échangé à environ +50 % en glissement mensuel, avec certains grands cloud acceptant ces prix, et des fournisseurs chinois proposant des prix encore plus élevés. Fin février, le prix contractuel de la DDR4 64 Go a atteint 910-920 dollars, soit environ 20 % de plus que la moyenne du premier trimestre (800 dollars). Les prix de la LPDDR et des DRAM pour électronique grand public devraient augmenter d’au moins 40 à 50 % au deuxième trimestre ; les contrats DDR4 devraient également augmenter de 40 à 50 %. La baisse anticipée de 20 à 25 % pour la HBM3E, initialement prévue, s’est inversée en une hausse à un chiffre en pourcentage lors des renouvellements de contrats ASIC.

Pour le NAND, les prix des SSD d’entreprise devraient augmenter de 40 à 50 % en glissement mensuel, avec des produits grand public en hausse d’au moins 60 %, et dans certains scénarios, les prix des eSSD pourraient doubler à nouveau au deuxième trimestre.

Morgan Stanley estime que la tendance à la hausse des prix YoY se poursuit, et que le marché est toujours dans la moitié supérieure du cycle haussier. Une révision à la hausse des prévisions de bénéfices pour refléter la contrainte de capacité sans précédent pourrait offrir un potentiel de correction significatif ; une augmentation du retour sur capital pourrait également soutenir une surperformance accrue.


Ces analyses proviennent de la plateforme Chasing Wind Trading.

Pour une lecture plus approfondie, y compris des analyses en temps réel et des recherches de première ligne, rejoignez【**Chasing Wind Trading - Abonnement annuel**】.

Avertissement de risque et clause de non-responsabilité

Le marché comporte des risques, l’investissement doit être prudent. Cet article ne constitue pas un conseil d’investissement personnel et ne prend pas en compte les objectifs, la situation financière ou les besoins spécifiques de chaque utilisateur. Les utilisateurs doivent juger si les opinions, points de vue ou conclusions présentés ici sont adaptés à leur situation particulière. En investissant sur cette base, ils en assument la responsabilité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler