【IA+matériel】« Homard » OpenClaw provoque un changement dans la demande de matériel, les prix de la mémoire vont-ils continuer à augmenter ? Morgan Stanley : l'exécution nécessite plus de DRAM que la réflexion

robot
Création du résumé en cours

Récemment, OpenClaw a déclenché une vague de « culture de homards ». Merrill Lynch indique que les agents d’intelligence artificielle (IA) représentés par OpenClaw provoquent un changement dans la demande matérielle, avec un passage du goulot d’étranglement de l’IA de la puissance de calcul vers le traitement des données. L’exécution des tâches nécessite plus de DRAM (Dynamic Random Access Memory, mémoire vive dynamique), ce qui rendra l’approvisionnement en DRAM plus tendu.

Cette société a relevé l’objectif de prix de SK Hynix à 1,3 million de won coréen, tout en augmentant l’objectif de prix ordinaire de Samsung Electronics à 251 000 won, tous deux maintenant avec une recommandation « accumulation ».

Le rapport prévoit que les prix de la mémoire augmenteront à un rythme accéléré d’année en année, étant actuellement dans une phase médiane de croissance. Plus précisément, au deuxième trimestre 2026, le prix du DRAM DDR5, principalement utilisé pour des calculs haut de gamme, devrait augmenter de plus de 50 % trimestre par trimestre, tandis que le DDR4, plus largement utilisé, pourrait voir une hausse comprise entre 30 % et 40 %. Les prix des produits NAND eSSD destinés aux serveurs pourraient doubler.

Changement de goulot d’étranglement matériel et tension sur la demande de DRAM dans le mode « exécution autonome » de l’IA

Contrairement à des IA génératives telles que ChatGPT, qui répondent à une question par une réponse, OpenClaw fonctionne davantage comme une équipe d’assistants efficace. Elle effectue des recherches autonomes sur le web, utilise des outils logiciels externes, lit et analyse des documents, voire exécute du code, pour finalement déduire des résultats complexes.

Selon Merrill Lynch, le mode d’exécution impliquant la coordination de plusieurs étapes, l’appel d’outils et l’orchestration des processus déplace le goulot d’étranglement matériel de l’IA du GPU (processeur graphique) vers le CPU (processeur central) et la mémoire. Le temps de calcul du CPU ralentira l’ensemble de la tâche. De plus, les multiples agents doivent constamment partager le contexte, décharger le cache KV (Key-Value Cache), stocker et récupérer les résultats de chaque étape intermédiaire, ce qui occupe énormément d’espace dans la DRAM.

Pendant l’époque des grands modèles de langage (LLM) traditionnels, la puissance du GPU était considérée comme le principal goulot d’étranglement. Le CPU se contentait de convertir les tokens (terme générique pour désigner la ressource de calcul ou le service de facturation de l’IA) en texte, et la DRAM était simplement utilisée pour effectuer des opérations de cache et de lecture/écriture.


Hot Talk Financier

La vague de « culture de homards » est-elle en train de céder la place à une « vague de retrait » ? Le concept d’agents IA est-il déjà dépassé ?

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler