De 8 % à 30 % ! La dépense en mémoire explose

robot
Création du résumé en cours

Il est évident que cette demande est pilotée par les besoins de l’intelligence artificielle.

SemiAnalysis prévoit que, d’ici 2026, les dépenses en mémoire représenteront environ 30 % du total des dépenses d’investissement (CAPEX) des méga centres de données, soit plus que les quelque 8 % observés en 2023 et en 2024. La société estime que cette proportion continuera encore de grimper en 2027 : en l’espace de seulement quatre ans, alors que les prix du DRAM explosent à des niveaux difficilement imaginables et que l’offre de HBM reste fortement insuffisante, la part des dépenses en mémoire passera ainsi à un niveau proche d’un quadruplement.

SemiAnalysis prévoit que les prix du DRAM doubleront d’ici 2026 et qu’en 2027, le prix moyen enregistrera encore une hausse à deux chiffres. Les prix des contrats LPDDR5 ont déjà augmenté de plus de trois fois depuis le premier trimestre 2025 ; la société estime qu’au cours de ce trimestre, les prix sur le marché public pourraient dépasser 10 dollars/GB.

D’après l’enquête de SemiAnalysis, la mémoire à superposition verticale HBM, qui est au cœur des accélérateurs IA, restera en déficit d’offre en 2027, alors que la mémoire représente déjà une large part des quelque 250 milliards de dollars de nouvelles dépenses que devraient engager cette année les méga centres de données.

Cela se reflète déjà dans la tarification des serveurs d’intelligence artificielle. SemiAnalysis indique que, sous l’effet très marqué de la hausse du coût de la mémoire, le prix des serveurs B200 devrait augmenter jusqu’à 20 % d’ici la fin de l’année. Cela rejoint la tendance de l’ensemble de l’industrie : lors des récentes conférences téléphoniques sur les résultats, les fabricants ont tous reconnu la forte hausse des coûts des composants. Jeff Clarke, directeur des opérations de Dell, a décrit le rythme de la hausse des coûts comme « sans précédent » lors de la conférence téléphonique des résultats du troisième trimestre de l’exercice 2025, en novembre dernier.

Counterpoint Research avait déjà prévu séparément qu’à la fin 2026, le prix des modules DDR5 de 64 Go RDIMM pourrait être le double du début de 2025. Les serveurs d’intelligence artificielle construits sur la plateforme LPDDR d’Nvidia devraient connaître les hausses de prix les plus importantes, car la quantité de mémoire nécessaire par système est très élevée.

SemiAnalysis souligne un phénomène intéressant : Nvidia obtient auprès de ses fournisseurs une tarification dite « VVP » (Very Very Preferred, extrêmement privilégiée) pour le DRAM, « bien inférieure aux prix que les méga centres de données et l’ensemble du marché paient ». SemiAnalysis estime que cela comprime les coûts des serveurs de Nvidia elle-même et abaisse le niveau de référence de la tarification sur l’ensemble du marché, masquant le fait que les autres utilisateurs sont confrontés à de graves pénuries d’approvisionnement.

La situation d’AMD est en revanche radicalement différente : ses SKU d’accélérateurs IA ont généralement un prix unitaire plus élevé, ce qui l’empêche de bénéficier des mêmes conditions avantageuses de ses fournisseurs. Les ventes des accélérateurs IA d’AMD étant bien inférieures à celles d’Nvidia, cela fait que, « lorsque le volume des accélérateurs IA d’AMD est bien plus faible que celui d’Nvidia, l’entreprise est plus facilement touchée par la hausse des coûts de la mémoire ». Autrement dit, grâce à son volume d’achats sur le HBM et le DRAM traditionnel, Nvidia dispose d’un avantage inaccessible aux petits acheteurs en volumes.

La conclusion de SemiAnalysis est que, même si les principaux opérateurs cloud ont déjà partiellement reflété dans leurs orientations CAPEX pour 2026 la hausse des prix de la mémoire, les attentes de Wall Street n’ont pas encore intégré la revalorisation tarifaire de 2027. Samsung, SK Hynix et Micron ont tous réorienté leur capacité vers le HBM et les DRAM d’entreprise à forte marge, entraînant une limitation de l’offre en DDR5 et LPDDR5 traditionnels. En outre, l’usine HBM de Hiroshima de Micron, financée à hauteur de 9,6 milliards de dollars, ainsi que les projets d’extension de SK Hynix situés à Lichuan et à Cheongju ne pourront au mieux produire de manière significative qu’à partir de 2027 ou 2028.

Source de l’article : Observateur de l’industrie des semi-conducteurs

Avertissement sur les risques et clause de non-responsabilité

        Le marché comporte des risques, investissez avec prudence. Le présent article ne constitue pas un conseil en investissement personnel et ne tient pas compte des objectifs d’investissement particuliers, de la situation financière ou des besoins spécifiques de chaque utilisateur. Les utilisateurs doivent évaluer si les opinions, points de vue ou conclusions présentés dans cet article correspondent à leur situation particulière. En investissant sur la base de cela, la responsabilité incombe à l’investisseur.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler