Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
De 8 % à 30 % ! La dépense en mémoire explose
Il est évident que cette demande est pilotée par les besoins de l’intelligence artificielle.
SemiAnalysis prévoit que, d’ici 2026, les dépenses en mémoire représenteront environ 30 % du total des dépenses d’investissement (CAPEX) des méga centres de données, soit plus que les quelque 8 % observés en 2023 et en 2024. La société estime que cette proportion continuera encore de grimper en 2027 : en l’espace de seulement quatre ans, alors que les prix du DRAM explosent à des niveaux difficilement imaginables et que l’offre de HBM reste fortement insuffisante, la part des dépenses en mémoire passera ainsi à un niveau proche d’un quadruplement.
SemiAnalysis prévoit que les prix du DRAM doubleront d’ici 2026 et qu’en 2027, le prix moyen enregistrera encore une hausse à deux chiffres. Les prix des contrats LPDDR5 ont déjà augmenté de plus de trois fois depuis le premier trimestre 2025 ; la société estime qu’au cours de ce trimestre, les prix sur le marché public pourraient dépasser 10 dollars/GB.
D’après l’enquête de SemiAnalysis, la mémoire à superposition verticale HBM, qui est au cœur des accélérateurs IA, restera en déficit d’offre en 2027, alors que la mémoire représente déjà une large part des quelque 250 milliards de dollars de nouvelles dépenses que devraient engager cette année les méga centres de données.
Cela se reflète déjà dans la tarification des serveurs d’intelligence artificielle. SemiAnalysis indique que, sous l’effet très marqué de la hausse du coût de la mémoire, le prix des serveurs B200 devrait augmenter jusqu’à 20 % d’ici la fin de l’année. Cela rejoint la tendance de l’ensemble de l’industrie : lors des récentes conférences téléphoniques sur les résultats, les fabricants ont tous reconnu la forte hausse des coûts des composants. Jeff Clarke, directeur des opérations de Dell, a décrit le rythme de la hausse des coûts comme « sans précédent » lors de la conférence téléphonique des résultats du troisième trimestre de l’exercice 2025, en novembre dernier.
Counterpoint Research avait déjà prévu séparément qu’à la fin 2026, le prix des modules DDR5 de 64 Go RDIMM pourrait être le double du début de 2025. Les serveurs d’intelligence artificielle construits sur la plateforme LPDDR d’Nvidia devraient connaître les hausses de prix les plus importantes, car la quantité de mémoire nécessaire par système est très élevée.
SemiAnalysis souligne un phénomène intéressant : Nvidia obtient auprès de ses fournisseurs une tarification dite « VVP » (Very Very Preferred, extrêmement privilégiée) pour le DRAM, « bien inférieure aux prix que les méga centres de données et l’ensemble du marché paient ». SemiAnalysis estime que cela comprime les coûts des serveurs de Nvidia elle-même et abaisse le niveau de référence de la tarification sur l’ensemble du marché, masquant le fait que les autres utilisateurs sont confrontés à de graves pénuries d’approvisionnement.
La situation d’AMD est en revanche radicalement différente : ses SKU d’accélérateurs IA ont généralement un prix unitaire plus élevé, ce qui l’empêche de bénéficier des mêmes conditions avantageuses de ses fournisseurs. Les ventes des accélérateurs IA d’AMD étant bien inférieures à celles d’Nvidia, cela fait que, « lorsque le volume des accélérateurs IA d’AMD est bien plus faible que celui d’Nvidia, l’entreprise est plus facilement touchée par la hausse des coûts de la mémoire ». Autrement dit, grâce à son volume d’achats sur le HBM et le DRAM traditionnel, Nvidia dispose d’un avantage inaccessible aux petits acheteurs en volumes.
La conclusion de SemiAnalysis est que, même si les principaux opérateurs cloud ont déjà partiellement reflété dans leurs orientations CAPEX pour 2026 la hausse des prix de la mémoire, les attentes de Wall Street n’ont pas encore intégré la revalorisation tarifaire de 2027. Samsung, SK Hynix et Micron ont tous réorienté leur capacité vers le HBM et les DRAM d’entreprise à forte marge, entraînant une limitation de l’offre en DDR5 et LPDDR5 traditionnels. En outre, l’usine HBM de Hiroshima de Micron, financée à hauteur de 9,6 milliards de dollars, ainsi que les projets d’extension de SK Hynix situés à Lichuan et à Cheongju ne pourront au mieux produire de manière significative qu’à partir de 2027 ou 2028.
Source de l’article : Observateur de l’industrie des semi-conducteurs
Avertissement sur les risques et clause de non-responsabilité