L'IA n'est pas seulement une histoire de puces – c'est une révolution de la mémoire

Les êtres humains manquent souvent de « vision à long terme » pour voir clairement le présent. Lorsqu’une tendance a suffisamment révélé ses données, la foule choisit de douter parce que… le prix a beaucoup augmenté. Au cours des trois dernières années, la capacité de VRAM sur chaque GPU de NVIDIA a augmenté d’environ 3,6 fois. Mais ce qui est vraiment remarquable, ce n’est pas seulement le GPU – c’est la quantité de mémoire HBM qui l’accompagne. Dans les trois prochaines années, la demande en HBM pourrait augmenter jusqu’à 5 fois.

Ainsi, la question n’est plus : « Les actions de mémoire ont-elles beaucoup augmenté ? » Mais : « Croyez-vous vraiment que l’IA est une révolution à long terme ? »

Lorsque NVIDIA Croît, la Mémoire ne Peut pas rester en dehors Si l’on pense que les actions de mémoire ne peuvent pas dépasser le cycle, cela signifie que : Les ventes de GPU de NVIDIA ne continueront pas à exploserLa demande en IA va bientôt se calmerLa croissance des tokens mondiaux n’est qu’un phénomène temporaire Mais la réalité montre que l’IA continue de s’étendre de façon exponentielle. Jensen Huang a souligné que la demande en calcul pour l’IA pourrait augmenter de plusieurs milliers de fois. Si le calcul augmente de mille fois, alors la mémoire – qui alimente le calcul – ne peut pas simplement augmenter à petites doses. L’IA consomme trois éléments principaux : Calcul (Compute)Stockage/Mémoire (Memory)Interconnexion optique (Optical Interconnect) Si vous croyez que le calcul est une histoire de croissance à long terme, alors la mémoire est par défaut aussi une croissance à long terme. Ces deux facteurs sont indissociables.

L’Attraction des Flux de Trésorerie d’NVIDIA : Effet de « Drainage » de l’Offre Passant à la génération Blackwell Ultra et Vera Rubin : Les nouveaux GPU consomment jusqu’à 288 Go de HBM3e par carteLes versions haut de gamme peuvent atteindre 384 Go – 512 GoLe CPU Vera accompagne une augmentation de la DRAM système à 1,5 To par socket Cela signifie : un rack AI haut de gamme consomme actuellement beaucoup plus de DRAM qu’un serveur traditionnel. Plus important encore, NVIDIA utilise : Paiement anticipé en espèces à grande échelleContrats « take-or-pay » à long terme => Verrouillant la majorité de la capacité HBM haut de gamme pour 2–3 ans. Conséquences : D’autres hyperscalers comme Google ou Amazon doivent rivaliser pour la part restanteLes serveurs traditionnels et l’électronique grand public sont contraints par l’approvisionnement en DRAML’industrie entre dans un état de pénurie structurelle, qui n’est plus une simple pénurie cyclique

Où en sont les trois géants de la mémoire ? SK Hynix Capacité HBM 2026 presque épuiséePoussée sur les usines M15X et YonginMais la production massive ne décolle réellement qu’à la fin 2027–2028Les commandes ont déjà dépassé la capacité théorique Samsung Electronics Objectif de croissance HBM plus de 3 foisInvestissements massifs dans P5HBM4 dépend du rendement de fabrication avancée et de la logique 4nmUne capacité significative n’est attendue qu’en 2028 Micron Technology Capex en forte hausse, dépassant 25 milliards de dollarsLa production de HBM4 à haute capacité commenceUne grande partie de l’offre 2026–2027 est déjà liée par des contrats à long termeLa super usine américaine ne contribuera de manière significative qu’à partir de 2028

Barrières Physiques : Impossible de « Couper le Robinet » Immédiatement Il existe deux limites strictes :

  1. Cycle de construction des salles blanches : de la mise en service à la conformité, cela prend 18–24 mois. Impossible de raccourcir avec de l’argent.
  2. HBM4 consomme 3 à 4 fois plus de wafers que le DRAM classique : HBM4 utilise une interface de 2048 bits et nécessite une puce de base logique produite sur un procédé avancé. Cela prolonge le cycle de production et augmente la consommation de wafers. => Même si les entreprises augmentent leurs investissements record, la croissance en bits reste limitée par la physique.

Conclusion : La Mémoire se Transforme en Actions de Croissance La valorisation de NVIDIA reflète une hypothèse : l’IA est une révolution à long terme. Si l’on accepte cette hypothèse, il ne faut pas nier : La mémoire est le carburant de l’IAHBM est une ressource stratégiqueLa demande en DRAM haut de gamme est en restructuration mondiale En essence, le calcul et la mémoire sont deux faces d’une même pièce. Ils deviendront soit tous deux une croissance à long terme, soit tous deux s’effondreront. Le marché peut encore douter. Mais les données sur la capacité, les contrats contraignants et les barrières physiques montrent que : ce cycle pourrait ne plus être un « cycle » au sens traditionnel.

NVDA-4,36%
MU-7,22%
AMZN-1,4%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épinglé