Microsoft Azure Data Center anticipe et s'aligne pleinement sur l'architecture de calcul de prochaine génération de NVIDIA

Lors du Consumer Electronics Show (CES) 2026, la plateforme NVIDIA Rubin fera son entrée fracassante, tandis qu’en parallèle se déploie et se vérifie aussi la capacité de déploiement prête à l’emploi de Microsoft Azure (version internationale). La stratégie de centres de données visionnaire de Microsoft est précisément pensée pour ce type de moment, afin que les systèmes de prochaine génération de NVIDIA puissent s’intégrer directement à notre infrastructure. Bien des années auparavant, nous avions déjà anticipé les tendances du secteur, et fait en sorte que l’infrastructure soit déjà prête à répondre à ses besoins en matière d’électricité, de refroidissement, de mémoire et de réseau. Et notre partenariat de longue date avec NVIDIA garantit que Rubin peut s’intégrer directement à la conception de plateforme prospective de Microsoft Azure (version internationale).

01

Conçu pour l’avenir

Le centre de données IA de Microsoft Azure (version internationale) est conçu pour accélérer le futur du calcul. Cela permet d’intégrer sans friction le rack NVIDIA Vera Rubin NVL72 au plus grand méga-usine IA de prochaine génération de Microsoft Azure (version internationale) — de la Californie au Texas, que ce soit pour les sites existants de Fairwater ou pour les nouveaux projets à venir, cette caractéristique est prise en charge.

La toute dernière infrastructure IA de NVIDIA nécessite une mise à niveau majeure en matière d’électricité, de refroidissement et d’optimisation des performances, et l’expérience accumulée par Microsoft Azure (version internationale) sur le site de Fairwater ainsi que lors de plusieurs cycles de mises à niveau au fil des années indique que nous sommes capables, au rythme des progrès technologiques, de renforcer et d’étendre de manière flexible cette infrastructure technique dédiée à l’IA.

02

Plus mature

Échelle et performances de la livraison Azure

Microsoft dispose de nombreuses années d’expérience dans la conception et le déploiement d’une infrastructure IA évolutive, et elle est largement validée par le marché. À chaque avancée majeure de la technologie IA, ces infrastructures évoluent elles aussi. En restant synchronisé avec chaque génération d’infrastructure de calcul accéléré de NVIDIA, Microsoft intègre rapidement les technologies innovantes de NVIDIA et met en œuvre des livraisons à grande échelle.

Nos GPU NVIDIA Ampere et Hopper déployés à grande échelle dès les premières phases, connectés via le réseau NVIDIA Quantum-2 InfiniBand, ont aussi joué un rôle important dans l’éclosion et la naissance de modèles tels que GPT-3.5, et d’autres clusters ont établi des records de performances en calcul haute performance. Cela prouve qu’en comparaison avec d’autres entreprises, nous pouvons mettre plus vite en service les systèmes de prochaine génération et obtenir de meilleures performances réelles.

Nous avons présenté les premières et les plus importantes réalisations des plateformes NVIDIA GB200 NVL72 et NVIDIA GB300 NVL72. Ces plateformes intègrent, sous forme de racks, un ensemble unique d’ordinateur supercalculateur, ce qui améliore de façon significative la vitesse d’entraînement des modèles IA, et aide Microsoft Azure (version internationale) à rester le choix prioritaire des clients recherchant des capacités avancées en technologie IA.

03

Une

approche systématique

La conception de Microsoft Azure (version internationale) vise à faire travailler de concert, en tant que plateforme intégrée, le calcul, le réseau, le stockage, les logiciels et l’infrastructure. Ses avantages durables permettent des avancées continues en matière de coûts et de performances au fil du temps.

Maximiser l’utilisation des GPU exige d’optimiser chaque couche de ce système. En plus de la capacité de Microsoft Azure (version internationale) à adopter très tôt de nouvelles plateformes de calcul accéléré de NVIDIA, ses avantages viennent aussi des plateformes environnantes, par exemple le stockage Blob à haut débit, les Proximity Placement Groups (groupes de placement à proximité) influencés par les modes de production réels, la conception au niveau régional, ainsi que des couches d’orchestration telles que CycleCloud et AKS, optimisées pour réduire les coûts lors de la planification de clusters à grande échelle.

Azure Boost et d’autres moteurs de délestage résolvent les goulots d’étranglement en E/S, réseau et stockage, permettant aux modèles d’évoluer de façon stable. Un flux de stockage plus rapide alimente des clusters plus grands ; un réseau plus robuste les maintient en fonctionnement ; et une orchestration optimisée préserve la stabilité des performances de bout en bout. L’innovation propriétaire renforce cette boucle : les unités d’échange liquide/air froid peuvent répondre à des exigences de refroidissement strictes, les puces de module de sécurité matérielle Azure (HSM) délestent des tâches de sécurité, et Azure Cobalt offre des performances et une efficacité exceptionnelles pour les tâches de calcul général et liées à l’IA. Ces intégrations, ensemble, garantissent une extension efficace de l’ensemble du système et permettent de maximiser la valeur de l’investissement GPU.

Grâce à cette approche systématique, Microsoft Azure (version internationale) est désormais entièrement interfacé avec la plateforme Rubin. Les nouveaux systèmes que nous livrons et la plateforme de bout en bout, dès la conception initiale, ont été ajustés avec précision pour correspondre aux besoins techniques de Rubin.

04

Faire fonctionner la plateforme NVIDIA Rubin

Le superchip NVIDIA Vera Rubin fournira des performances d’inférence de 50 PF par puce en NVFP4, ainsi que 3,6 EF de performances NVFP4 par rack. Par rapport au système à racks NVIDIA GB200 NVL72, cela représente un saut de performances multiplié par cinq.

Microsoft Azure (version internationale) a désormais intégré les hypothèses d’architecture centrales requises par Rubin :

L’évolution de NVIDIA NVLink : dans le système Vera Rubin NVL72, la bande passante interconnexion attendue de la sixième génération de NVIDIA NVLink atteindra environ 260 TB/s de bande passante d’extension en direction verticale ; la conception d’architecture de racks de Microsoft Azure (version internationale) a été redéfinie afin de tirer pleinement parti de ces avantages de bande passante et de topologie.

Réseau d’extension horizontale haute performance : l’infrastructure IA de Rubin s’appuie sur le réseau NVIDIA ConnectX-9 ultra-rapide de 1 600 Gb/s fourni par l’infrastructure réseau de Microsoft Azure (version internationale), infrastructure conçue pour prendre en charge des charges de travail IA à grande échelle.

Planification du refroidissement et de la densité HBM4/HBM4e : la pile mémoire de Rubin nécessite des fenêtres thermiques plus étroites et une densité de racks plus élevée ; le refroidissement, la plage électrique et la géométrie des racks de Microsoft Azure (version internationale) ont déjà été mis à niveau afin de faire face aux mêmes contraintes.

Extension mémoire pilotée par SOCAMM2 : le superchip Rubin adopte une nouvelle architecture d’extension mémoire ; la plateforme de Microsoft Azure (version internationale) a déjà intégré et validé un comportement similaire d’extension mémoire afin de continuer à fournir des données aux modèles dans des environnements à grande échelle.

Extension de la taille des puces GPU et encapsulation multi-puces : Rubin se tourne vers des puces GPU occupant plus d’espace et une disposition multi-puces. La chaîne d’approvisionnement, la conception mécanique et la couche d’orchestration de Microsoft Azure (version internationale) ont été préréglées pour ces extensions physiques et logiques.

La méthode de Microsoft Azure (version internationale) lors de la conception de plateformes de calcul accéléré de prochaine génération comme Rubin a été confirmée au fil des années, y compris par les étapes clés importantes suivantes :

Exécution du plus grand déploiement commercial mondial d’InfiniBand sur plusieurs générations de GPU.

Construction de couches de fiabilité et de technologies de gestion de la congestion, permettant de libérer un taux d’utilisation de cluster plus élevé et des tailles de tâches plus importantes que chez les concurrents ; cela se reflète dans notre capacité à publier des résultats de benchmarks à grande échelle de niveau leader dans l’industrie, par exemple un déploiement MLPerf multi-racks en cours d’exécution que les concurrents n’ont jamais reproduit.

Un centre de données IA conçu dès la base avec Grace Blackwell et Vera Rubin, visant à maximiser les performances au niveau des clusters et les performances par coût unitaire.

05

Conception innovante

Pour faire ressortir Azure

Architecture d’échange de Pods : pour permettre un service rapide, la conception des plateaux de serveurs GPU de Microsoft Azure (version internationale) est conçue pour un remplacement rapide, sans devoir refaire un câblage important, ce qui améliore le temps de fonctionnement.

Couche d’abstraction du refroidissement : les multi-puces et composants à forte bande passante de Rubin nécessitent une marge de dissipation thermique complexe ; mais Fairwater a déjà su relever ce défi, évitant ainsi des cycles de transformation coûteux.

Conception électrique de prochaine génération : Vera Rubin NVL72 exige une densité de puissance toujours plus élevée, et la refonte de l’alimentation de Microsoft Azure (version internationale) au fil des années (révisions du circuit de refroidissement liquide, extension des CDU et barrettes omnibus à plus forte intensité) garantit la capacité de déploiement immédiate.

Usines supercalibrées d’IA modulaires : contrairement aux autres fournisseurs de cloud à très grande échelle, Microsoft construit des supercalculateurs au niveau régional plutôt que sur un seul site géant ; cela rend le lancement de nouveaux SKU à l’échelle mondiale bien plus maîtrisé.

06

Transformer la

co-conception en avantages pour les utilisateurs

La plateforme NVIDIA Rubin marque un pas important vers l’avant dans le domaine du calcul accéléré. Et les centres de données IA ainsi que les superusines de Microsoft Azure (version internationale) ont déjà achevé une conception d’ingénierie capable d’exploiter pleinement cet avantage.

Au fil des années, la co-conception avec NVIDIA concernant l’interconnexion, les systèmes de mémoire, le refroidissement, l’encapsulation et l’architecture à l’échelle des racks signifie que NVIDIA Rubin peut s’intégrer directement à la plateforme de Microsoft Azure (version internationale) sans retouche. Les hypothèses centrales de NVIDIA Rubin ont également été reflétées dans nos principes de conception pour le réseau, l’électricité, le refroidissement, l’orchestration et l’architecture d’échange de Pods. Cette cohérence de co-conception apporte des bénéfices immédiats aux clients : lors de la construction de la prochaine ère de l’IA à grande échelle, ils peuvent réaliser un déploiement plus rapide, une mise à l’échelle plus rapide et un impact plus précoce.

Le contenu publié sur ce compte est constitué de créations originales de Microsoft ou a été publié avec l’autorisation des titulaires des droits. Sans autorisation, aucune entité ni aucune personne ne peut reproduire, distribuer, diffuser, adapter, traduire ou compiler.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler