L'expansion de l'IA met à rude épreuve le réseau électrique : 7 logiques d'investissement énergétique que vous devez connaître

L’énergie est la véritable contrainte de la croissance intelligente.

Auteur : Joseph Ayoub

Traducteur : Deep潮 TechFlow

Introduction de Deep潮 : Tout le monde parle de puissance de calcul et de modèles, mais cet article soulève une question plus fondamentale : l’approvisionnement en énergie peut-il suivre le rythme ? Morgan Stanley prévoit qu’en 2028, les États-Unis feront face à un déficit de 45 GW d’électricité, avec un délai de livraison des gros transformateurs atteignant 24 à 36 mois, tandis que la consommation électrique des centres de données IA augmente chaque année de 15 %. L’auteur en déduit 7 logiques d’investissement, allant de la fragmentation du réseau électrique aux transformateurs à état solide en passant par le refroidissement à deux phases, des angles peu courants mais cruciaux.

Tout le texte est le suivant :

NVIDIA a récemment publié le cadre “L’IA est un gâteau à cinq couches”. Aujourd’hui, je vais démontrer que la couche énergétique est la contrainte principale qui limite la croissance intelligente, et explorer ses conséquences.

Le progrès de la civilisation humaine résulte de notre capacité à maîtriser les outils — qu’il s’agisse de marteaux, de feu, de chevaux, d’imprimantes, de téléphones, d’ampoules, de machines à vapeur, de radios ou d’IA. Ces “outils” sont la façon dont l’humanité transforme l’énergie en productivité.

Fondamentalement, c’est en captant l’énergie et en la dirigeant vers des objectifs à l’aide d’outils que nous augmentons la productivité humaine.

En résumé, la logique centrale du progrès civilisateur est la suivante :

Pendant la majeure partie de l’histoire humaine, l’humanité s’appuyait sur l’énergie corporelle et les mains comme outils pour atteindre ses objectifs — que ce soit pour cultiver ou écrire. L’imprimante est un exemple typique de la synergie entre énergie et outils — popularisée par Gutenberg en 1440. Avant cette innovation, l’humanité consommait sa propre énergie, écrivant à la main avec un stylo (outil), ce qui était extrêmement inefficace. L’innovation de l’imprimante a introduit de nouveaux outils, augmentant considérablement l’efficacité de l’utilisation de l’énergie humaine en imprimant mécaniquement des textes, ce qui a multiplié la productivité par plusieurs ordres de grandeur. Cependant, de 1450 à 1800, soit près de 350 ans, l’imprimante n’a connu quasiment aucune innovation substantielle. Ce n’est qu’après que l’humanité a maîtrisé une énergie plus puissante — le charbon — que l’équation énergétique a changé. En 1814, Friedrich Koenig a inventé la presse à vapeur, adaptant l’imprimante à cette nouvelle énergie dominante — le charbon, ce qui a multiplié par 5 l’efficacité. Par la suite, la presse à vapeur a continué à s’adapter efficacement aux nouvelles énergies, passant de 250 exemplaires par heure à 30 000, puis aujourd’hui à plusieurs millions.

Ainsi, l’innovation continue de nouveaux outils, la rupture des frontières de la maîtrise de l’énergie, et l’amélioration de l’efficacité de ces outils par rapport à l’énergie disponible — ce processus se poursuit encore aujourd’hui. Aujourd’hui, l’intelligence représente notre nouvelle forme de productivité, et l’énergie en est le carburant. La question clé est : pouvons-nous continuer à faire croître l’intelligence ? Cela dépend de notre capacité à produire une énergie durable et fiable pour alimenter ces outils (GPU) et les orienter vers des objectifs (intelligence).

Ce sujet rejoint l’échelle de Kardashev — qui mesure le niveau de progrès technologique d’une civilisation par la quantité d’énergie qu’elle peut maîtriser, de la planète aux étoiles, puis aux galaxies, à l’univers, et aux multivers. La quantité d’énergie que nous pouvons maîtriser indique notre avancée en tant que civilisation. Historiquement, cette règle a toujours été valable, et l’avenir ne fera pas exception. La capacité à maîtriser l’énergie est la base du progrès civilisateur.

L’argument central de cet article est : la demande en énergie dépasse rapidement l’offre, ce qui constitue le principal goulot d’étranglement pour faire avancer l’intelligence. Je vais analyser les impacts de ce phénomène à deux niveaux.

Pourquoi l’approvisionnement en énergie ralentit-il ?

La découverte de la fission nucléaire en 1939 représente la dernière grande révolution dans le domaine de l’énergie depuis la naissance de la civilisation humaine. Cependant, en raison de l’accident de Tchernobyl et de l’engagement mondial à passer du nucléaire aux énergies renouvelables, un décalage évident s’est produit entre l’innovation des outils et les progrès énergétiques depuis 1950. En 1950, la production mondiale d’énergie était de 2600 GW, aujourd’hui elle atteint 19 000 GW (augmentation de 7,3 fois). Cela semble énorme, mais cette croissance linéaire progressive ne peut en aucun cas suivre la croissance moderne des calculs et des technologies, qui dépasse à peine la croissance démographique de 3,5 fois.

En revanche, la fréquence des sauts d’innovation dans les outils diminue. Il a fallu 364 ans entre la première imprimante et sa prochaine grande amélioration, 58 ans entre le premier vol et le voyage dans l’espace, 20 ans entre le microprocesseur et Internet, alors que les avancées majeures des GPU se produisent tous les 2 ans. Nous vivons dans une période où l’efficacité des outils s’accélère, avec des innovations qui se superposent de plus en plus rapidement. De l’IA à la cryptographie, puis à l’informatique quantique, la vitesse de découverte de nouvelles innovations s’accélère, tout comme leur efficacité — c’est la loi des rendements accélérés.

Aujourd’hui, les centres de données consomment 1,5 % de l’électricité mondiale, et cette part devrait atteindre 3 % d’ici 2030 — un parcours que la machine à vapeur a mis 50 ans à parcourir, réalisé en 6 ans. La différence clé avec la révolution industrielle est que celle-ci a construit son propre approvisionnement énergétique en parallèle de la croissance de la demande — mines de charbon, canaux, réseaux ferroviaires et machines associées se sont développés simultanément. Chaque révolution énergétique précédente a créé sa propre chaîne d’approvisionnement, en même temps que la croissance. L’IA hérite d’une chaîne existante, qui commence déjà à se fissurer.

Le réseau électrique n’est pas prêt à faire face à une croissance annuelle de 15 % de la consommation électrique, alors que la demande aux États-Unis a pratiquement stagné ces dix dernières années. Des fissures apparaissent : le délai d’accès au réseau électrique est historique, la livraison des gros transformateurs atteint en moyenne 24 à 36 mois, et d’ici 2025, il y aura un déficit de 30 % en transformateurs. Morgan Stanley estime qu’aux États-Unis seulement, d’ici 2028, il y aura un déficit de 45 GW, soit la consommation de 33 millions de foyers. Je pense que ce déficit pourrait être encore plus important.

Le problème est clair : pour suivre le rythme des avancées dans l’IA, la robotique ou la conduite autonome, l’humanité doit radicalement augmenter sa capacité énergétique.

Conséquences du déficit énergétique imminent : impacts de premier et second ordre

Les conséquences seront historiques : avec une demande en énergie qui explose et une offre insuffisante, nous risquons de voir émerger un marché de l’énergie quasi privatisé.

Les hyperscalers ont déjà commencé à construire leurs propres installations de production d’énergie (BTM) et envisagent d’étendre cette tendance aux centres de données alimentés par nucléaire. Je suis convaincu que cette tendance ne fera que s’accentuer.

Voici 7 arguments, tous issus de l’explosion de l’intelligence et de ses effets sur l’approvisionnement électrique déjà tendu.

Argument 1 : Fragmentation du réseau — la puissance de calcul migrera vers l’énergie, pas l’inverse

Dans les régions où la demande de calcul est proche, les juridictions riches en énergie et à réglementation souple bénéficieront d’une valeur disproportionnée à mesure que le système électrique se fragmentera.

Lorsque la demande en énergie dépasse l’offre, l’électricité devient un enjeu politique. Les ménages ont le droit de vote, pas les centres de données. En cas de pénurie, le réseau ne restera pas neutre ; il privilégiera la consommation résidentielle par rapport à l’industrielle, via la tarification, les restrictions ou des plafonds souples.

Les charges de calcul étant extrêmement sensibles à la latence, à la disponibilité et à la fiabilité, il est impossible d’opérer dans des juridictions où l’électricité résidentielle est prioritaire. À mesure que l’accès au réseau devient instable ou politisé, la puissance de calcul migrera vers des modes de production d’énergie sur site (BTM), où l’électricité peut être directement garantie, contrôlée et tarifée.

Cela entraînera une transformation structurelle : la puissance de calcul migrera vers des économies où l’énergie est abondante et la réglementation souple. Les gagnants seront ceux qui sauront intégrer terre, connectivité, production d’énergie et fibre optique en systèmes déployables et reproductibles, dans ces juridictions.

Argument 2 : L’énergie devient un avantage concurrentiel — la production d’énergie sur site (BTM) comme différenciateur clé pour les fournisseurs de puissance de calcul

C’est, à mon avis, l’impact de premier ordre le plus critique de la pénurie énergétique croissante. Dans un monde où la demande dépasse l’offre, obtenir de l’électricité bon marché et fiable confère un avantage structurel croissant dans le temps. De plus, la priorité donnée aux centres de données pour l’électricité du réseau devient politiquement insoutenable, ce qui suit la trajectoire actuelle de l’énergie. La pression sur le réseau national oblige les fournisseurs de puissance de calcul à produire leur propre énergie, et les hyperscalers ont déjà commencé cette tendance. Sans infrastructure de production d’énergie BTM, ils seront éliminés.

En résumé, posséder sa propre énergie est un avantage, louer son énergie est un désavantage. Sans production d’énergie BTM, les fournisseurs de puissance de calcul feront face à des problèmes de fiabilité (fatals), à la hausse des coûts et à des restrictions d’usage. Les REIT purement hébergés, sans production propre (comme Equinix, Digital Realty), verront leur valeur diminuer face aux opérateurs intégrés verticalement. Ceux qui combinent production d’énergie et hébergement de calcul construisent les fossés les plus profonds (Crusoe, Iren, certains hyperscalers). On peut en faire une stratégie de trading long/court, mais je préfère souligner ici les gagnants de l’intégration verticale.

Argument 3 : Standardisation du BTM — innovation à partir des transformateurs traditionnels vers les transformateurs à état solide, des commutateurs traditionnels aux commutateurs numériques

Les transformateurs traditionnels élèvent ou abaissent la tension du réseau AC. En raison de leur taille et matériaux, leur délai de livraison est de 24 à 36 mois, avec un déficit de 30 %. C’est une technologie du XIXe siècle, fabriquée à la main avec des matériaux limités. L’essentiel est que chaque mégawatt de production d’énergie BTM doit être converti, régulé et distribué au point de calcul, sans possibilité de contourner ces transformateurs.

Les transformateurs à état solide remplacent tout cela par des dispositifs électroniques de puissance à haute fréquence. Plus petits, plus rapides, entièrement contrôlables, ils gèrent la conversion AC-DC, la régulation de tension et le courant bidirectionnel dans une seule unité. Leur fabrication est simplifiée, utilisant des semi-conducteurs en carbure de silicium ou nitrure de gallium plutôt que de grandes bobines de cuivre et des réservoirs d’huile. Avec le BTM standardisé, l’équipement entre énergie et calcul devient le goulot d’étranglement, c’est le transformateur à état solide (SST).

Les commutateurs aussi ont un délai de 80 semaines, ils contrôlent la distribution d’énergie, isolent les pannes, protègent le système. Comme les transformateurs, ils sont des produits à forte intensité de main-d’œuvre, fabriqués avec des matériaux limités, et n’ont guère changé depuis la fin du XIXe siècle.

Les commutateurs numériques remplacent tout cela par des dispositifs électroniques de puissance à état solide. Plus rapides, programmables, entièrement contrôlables, ils permettent la détection de panne en temps réel, l’isolement à distance, le routage dynamique de la charge. Et ils s’étendent comme des produits électroniques, pas comme des équipements industriels.

À propos du cuivre : j’ai une vision positive du cuivre. C’est la voie rapide de l’électronique, et il sera la matière première clé dans un monde de plus en plus électrifié. La façon dont ce commerce s’exprime est subtile — les mines traditionnelles comme transaction, avec des marges faibles qui peuvent se réduire avec le temps. Mais au niveau des produits finis, où le cuivre est irremplaçable et soumis à des délais, il existe un goulot d’étranglement important et un potentiel de valeur future. Les fabricants de câbles comme Prysmian et Nexans vendent des contraintes de produits finis, pas des matières premières, et avec l’allongement des délais de livraison des transformateurs, ce n’est plus un marché de commodités.

Argument 4 : Le coût carbone de l’IA devient politiquement insoutenable — il forcera vers des solutions basées principalement sur le solaire et les batteries

Le développement de l’IA soulève un problème de carbone non encore intégré dans le prix, une contrainte politique. Les centres de données augmentent le prix de l’électricité, consomment beaucoup d’eau, et augmentent les émissions locales. Cela s’est déjà traduit par l’annulation de projets de centres de données d’une valeur de 18 milliards de dollars, et le retard de projets de 46 milliards.

Aujourd’hui, environ 56 % de l’électricité des centres de données provient de combustibles fossiles. Le gaz naturel a permis de résoudre la vitesse de déploiement, mais reste politiquement fragile. Avec la croissance de la demande, la résistance à l’expansion des fossiles augmente, obligeant à un système hybride gaz, nucléaire, renouvelables.

Bien que le gaz naturel ait été un pont à court terme dans l’explosion des centres de données, à long terme, l’abondance énergétique ne sera pas résolue par l’extraction de combustibles, mais par la capture d’énergie. L’énergie solaire est plusieurs ordres de grandeur supérieure à la consommation humaine. La contrainte n’est pas la disponibilité, mais la conversion, le stockage et le déploiement.

Le solaire n’est pas une solution immédiate pour la demande en puissance de calcul, mais la solution ultime.

Actuellement, le solaire commercial capte environ 22 % de l’énergie incidente. Chaque amélioration de l’efficacité de conversion réduit le coût par mégawatt, rapprochant le solaire de la parité pour une production d’énergie réglable dans les systèmes BTM.

Le stockage par batteries devient un composant central, non seulement pour lisser l’intermittence, mais aussi comme couche de profit. L’arbitrage de stockage et l’équilibrage de charge transforment un coût historique en source de profit pour les opérateurs BTM.

Les gagnants seront les entreprises intégrées verticalement, couvrant la capture, le stockage et la distribution : développeurs solaires spécialisés avec contrats BTM, fabricants de batteries avec produits de niveau réseau et site, et quelques opérateurs capables de combiner leur propre production d’énergie avec l’hébergement de calcul.

Le solaire est une question d’approvisionnement et de fabrication, les batteries sont la couche de contrainte et de monétisation, intégrant la capture de profit. La technologie de pointe reste une option, pas le scénario de base. Tesla pourrait continuer à dominer, mais je limite ici à des cibles non consensuelles.

Argument 5 : Le refroidissement devient une contrainte majeure — le refroidissement liquide à deux phases (D2C) sera incontournable dans les applications de pointe

Une autre conséquence est l’émergence du refroidissement à deux phases direct (D2C). Franchement, cet argument rejoint mon propre jugement : la densité de puissance des puces suit une trajectoire parabolique, ce qui pose un problème thermodynamique de plus en plus difficile. Le refroidissement par air traditionnel n’est pas durable, notamment parce qu’il ne fonctionne pas à haute densité, et pose des problèmes environnementaux liés à l’eau et à l’électricité.

D’abord, le refroidissement D2C permet d’augmenter la densité et la performance sans limites thermiques — c’est la clé de l’expansion. Le marché actuel privilégie le refroidissement monophasé, plus simple : l’eau froide circule dans des plaques pour refroidir la puce, mais une limite est connue. Au-delà de 1500 W de densité, la transition vers le refroidissement à deux phases devient inévitable. Le liquide diélectrique est pompé autour de la puce, conçu pour bouillir à basse température — la phase liquide à gaz augmente considérablement l’efficacité du refroidissement.

Le refroidissement à deux phases peut réduire la consommation d’énergie de 20 % et la consommation d’eau de 48 %. Cette amélioration permet des emballages plus denses, de meilleures performances, et une demande accrue pour un refroidissement haute performance.

Le leader dans le refroidissement D2C à deux phases, Zutacore, a démontré l’utilisation de liquides diélectriques (plutôt que d’eau), réduisant la consommation d’énergie de 82 % et éliminant totalement la consommation d’eau — ce résultat a été validé par Vertiv et Intel. Zutacore est un acteur privé à suivre dans ce domaine, et il pourrait aussi être intéressant d’étudier les fournisseurs de liquides diélectriques.

Argument 6 : Le nucléaire peut servir de pont vers une énergie abondante et stable, mais n’est pas une solution à long terme

En rédigeant cet article, je pensais initialement que le nucléaire était une bonne solution pour combler le déficit à court terme. La réalité est que le coût de déploiement des petits réacteurs modulaires (SMR) est 5 à 10 fois supérieur à celui des systèmes au gaz naturel (10 000 à 15 000 dollars par kW), ce qui rend leur déploiement à grande échelle impossible.

Le nucléaire résout le problème de fiabilité, pas celui de la vitesse ou du coût — surtout pour les installations BTM. Il permet de fournir une puissance de base stable et réglable là où la fiabilité est non négociable. Par conséquent, le nucléaire a un rôle dans le déficit énergétique, comme pont, pas comme solution principale.

Le nucléaire est limité par le cycle du combustible et le temps de construction. Les réacteurs avancés nécessitent de l’uranium faiblement enrichi (HALEU), qui est presque inexistant à l’échelle commerciale. Même construit, le réacteur ne pourra pas être alimenté rapidement si le combustible manque, ce qui limite la vitesse d’expansion nucléaire.

Ainsi, le nucléaire ne sera pas la solution marginale pour l’expansion énergétique — il est lent à se déployer, coûteux, et dépend des infrastructures et du combustible. Les systèmes qui se déploient le plus rapidement — récemment le gaz naturel, à long terme le solaire et le stockage — sont les options pour réduire l’écart.

Le vrai goulot d’étranglement à investir n’est pas le réacteur, mais le combustible. Avec la demande croissante pour les SMR, l’enrichissement en uranium à haute teneur deviendra un maillon critique — un goulot d’étranglement indépendant du type de réacteur, dont la valeur s’accumulera ici.

Argument 7 : Apparition d’un nouveau groupe d’infrastructures énergétiques ; les acteurs intégrés verticalement transformeront l’électron en capacité de calcul

Le goulot d’étranglement des infrastructures pour l’IA ne réside pas seulement dans l’énergie, mais aussi dans la capacité à convertir massivement cette énergie en calcul utilisable.

Dans les années 1870, comme pour l’électricité, le pétrole n’était pas rare, mais le raffinage et la distribution posaient problème. Rockefeller a créé une entreprise en intégrant verticalement l’extraction, le raffinage et la distribution du pétrole, devenant l’une des plus grandes entreprises de tous les temps (Standard Oil).

La révolution de l’IA suit un schéma similaire : l’électricité est comme le pétrole brut. Elle est abondante, mais la capacité à la transformer de façon fiable en puissance de calcul est limitée par la livraison, le refroidissement, la connectivité et la régulation. Le raffinage de l’électron est la véritable valeur. Chaque étape d’intégration augmente la fiabilité, réduit les coûts, et crée des marges, renforçant l’intégration verticale.

Les grandes entreprises sont la couche de distribution de ce système, ainsi que les terminaux de consommation de calcul. Mais l’opportunité structurelle réside dans l’infrastructure que les distributeurs sont forcés d’acheter. Cela crée une nouvelle catégorie d’acteurs d’infrastructures énergétiques, contrôlant la production, la conversion, le refroidissement et l’hébergement.

L’exemple le plus clair est celui des opérateurs intégrés dans le marché privé, comme Crusoe et Lancium, ou des plateformes de calcul dans le marché public, comme Iren ou Core Scientific, qui possèdent déjà les bases les plus difficiles à reproduire : l’énergie.

Les entreprises qui contrôlent le flux d’électrons vers les racks construisent la barrière la plus profonde dans l’économie de l’IA. Les logiciels ne peuvent pas engloutir l’infrastructure physique.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler