Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Microsoft Azure data centers antecipam-se na implementação, integrando completamente a arquitetura de computação de próxima geração da NVIDIA
Na CES 2026, a plataforma NVIDIA Rubin foi lançada com grande impacto, e, ao mesmo tempo, foi demonstrada e validada a capacidade de implantação do Microsoft Azure (versão internacional). A estratégia de data center visionária da Microsoft foi projetada precisamente para momentos como este, permitindo que os sistemas de próxima geração da NVIDIA sejam integrados diretamente em nossa infraestrutura. Há vários anos, antecipamos as tendências do setor, preparando a infraestrutura para atender suas necessidades em termos de energia, resfriamento, memória e rede. Nossa parceria de longa data com a NVIDIA garante que o Rubin possa ser incorporado diretamente no design de plataforma visionário do Microsoft Azure (versão internacional).
01
Projetado para o futuro
Os centros de dados de IA do Microsoft Azure (versão internacional) foram especificamente projetados para acelerar o futuro da computação. Isso permite que o rack NVIDIA Vera Rubin NVL72 seja integrado de forma transparente no maior supercomputador de IA de próxima geração do Microsoft Azure (versão internacional), desde Wisconsin até Atlanta, suportando essa característica tanto em locais existentes como no Fairwater quanto em novos projetos futuros.
A mais recente infraestrutura de IA da NVIDIA requer atualizações significativas em termos de energia, resfriamento e otimização de desempenho, e a experiência acumulada pelo Microsoft Azure (versão internacional) no local de Fairwater e ao longo de vários ciclos de atualização ao longo dos anos mostra que somos capazes de melhorar e expandir flexivelmente a infraestrutura de tecnologia de IA à medida que a tecnologia avança.
02
Mais maduro
Escala e desempenho da entrega do Azure
A Microsoft possui anos de experiência em projetar e implantar infraestrutura de IA escalável, amplamente validada pelo mercado. A cada grande avanço na tecnologia de IA, essa infraestrutura também evolui. Ao manter-se alinhada com cada geração de infraestrutura de computação acelerada da NVIDIA, a Microsoft também está rapidamente integrando as tecnologias inovadoras da NVIDIA e realizando entregas em larga escala.
A nossa implantação inicial em larga escala das GPUs NVIDIA Ampere e Hopper, conectadas através da rede NVIDIA Quantum-2 InfiniBand, também desempenhou um papel importante na incubação e criação de modelos como o GPT-3.5, com outros clusters estabelecendo recordes de desempenho de supercomputação, demonstrando que, em comparação com outras empresas, somos capazes de colocar sistemas de próxima geração em funcionamento mais rapidamente e alcançar desempenho real superior.
Mostramos a implementação inicial e em maior escala das plataformas NVIDIA GB200 NVL72 e NVIDIA GB300 NVL72, que integram em forma de rack um único supercomputador, capaz de aumentar significativamente a velocidade de treinamento de modelos de IA, ajudando o Microsoft Azure (versão internacional) a permanecer a escolha preferida dos clientes que buscam capacidades avançadas em tecnologia de IA.
03
A abordagem sistemática do Azure
O design do Microsoft Azure (versão internacional) visa permitir que computação, rede, armazenamento, software e infraestrutura trabalhem em conjunto como uma plataforma integrada. Sua vantagem duradoura construiu uma ruptura em que custo e desempenho continuam a se acumular ao longo do tempo.
Maximizar a utilização da GPU requer otimização em cada camada deste sistema. Além da capacidade do Microsoft Azure (versão internacional) de adotar precocemente a nova plataforma de computação acelerada da NVIDIA, a vantagem do Microsoft Azure (versão internacional) também vem de plataformas periféricas, como armazenamento Blob de alto rendimento, grupos de colocação próximos (Proximity Placement Groups) impactados por modos de produção reais e design em nível regional, assim como as camadas de orquestração CycleCloud e AKS, otimizadas para agendamento de baixo custo em grandes clusters.
O Azure Boost e outros motores de descarregamento resolveram gargalos de IO, rede e armazenamento, permitindo que os modelos escalem suavemente. Armazenamento mais rápido alimenta clusters maiores, enquanto uma rede mais robusta mantém sua operação, e a orquestração otimizada garante a estabilidade do desempenho de ponta a ponta. Inovações de primeira linha reforçam este ciclo fechado: unidades de troca de calor a líquido atendem a exigências rigorosas de resfriamento, chips de módulo de segurança de hardware do Azure (HSM) descarregam tarefas de segurança, enquanto o Azure Cobalt oferece desempenho e eficiência excepcionais para tarefas de computação geral e relacionadas à IA. Essas integrações garantem uma escalabilidade eficiente de todo o sistema, maximizando o valor dos investimentos em GPU.
Com esta abordagem sistemática, o Microsoft Azure (versão internacional) já está totalmente integrado à plataforma Rubin. Os novos sistemas e plataformas de ponta a ponta que estamos entregando foram projetados desde o início para atender com precisão a todas as necessidades técnicas do Rubin.
04
Executando a plataforma NVIDIA Rubin
O superchip NVIDIA Vera Rubin oferecerá um desempenho de inferência NVFP4 de 50 PF por chip, e um desempenho NVFP4 de 3,6 EF por rack, representando um salto de desempenho cinco vezes superior em comparação com o sistema de rack NVIDIA GB200 NVL72.
O Microsoft Azure (versão internacional) já incorporou as suposições arquitetônicas centrais necessárias para o Rubin:
A evolução do NVIDIA NVLink: a largura de banda de interconexão do sexto geração NVIDIA NVLink esperada no sistema Vera Rubin NVL72 alcança cerca de 260 TB/s de largura de banda de escalonamento vertical, e a arquitetura de rack do Microsoft Azure (versão internacional) foi redesenhada para tirar pleno proveito dessas larguras de banda e vantagens topológicas.
Rede de alto desempenho de escalonamento horizontal: a infraestrutura de IA Rubin depende de uma rede NVIDIA ConnectX-9 de 1.600 Gb/s super-rápida fornecida pela infraestrutura de rede do Microsoft Azure (versão internacional), que foi construída para suportar cargas de trabalho de IA em larga escala.
Planejamento de resfriamento e densidade HBM4/HBM4e: a pilha de memória Rubin requer uma faixa de controle de temperatura mais estreita e uma maior densidade de rack; o resfriamento, a faixa de energia e a geometria do rack do Microsoft Azure (versão internacional) já foram atualizados para atender a essas mesmas restrições.
Expansão de memória impulsionada por SOCAMM2: o superchip Rubin adota uma nova arquitetura de expansão de memória; a plataforma do Microsoft Azure (versão internacional) já integrou e validou comportamentos semelhantes de expansão de memória para fornecer dados continuamente aos modelos em ambientes de larga escala.
Expansão do tamanho do chip GPU e embalagem multi-chip: Rubin está mudando para um espaço de GPU maior e layout multi-chip. A cadeia de suprimentos do Microsoft Azure (versão internacional), o design mecânico e a camada de orquestração foram pré-otimizados para essas características de expansão física e lógica.
O método da Microsoft Azure (versão internacional) ao projetar plataformas de computação acelerada de próxima geração, como o Rubin, tem sido comprovado ao longo de vários anos, incluindo marcos importantes como:
Executar a maior implantação comercial de InfiniBand global em várias gerações de GPU.
Construir camadas de confiabilidade e técnicas de gerenciamento de congestionamento que, em comparação com os concorrentes, liberaram maior taxa de utilização de clusters e maiores escalas de tarefas, o que se reflete na nossa capacidade de publicar resultados de benchmarks em larga escala líderes da indústria. Por exemplo, uma execução MLPerf em múltiplos racks que os concorrentes nunca conseguiram replicar.
O design de centros de dados de IA co-desenhado desde a base com Grace Blackwell e Vera Rubin, visando maximizar o desempenho e a relação custo-desempenho em nível de cluster.
05
Design inovador
Fazendo o Azure se destacar
Arquitetura de troca de Pod: Para permitir serviços rápidos, os servidores GPU do Microsoft Azure (versão internacional) são projetados para serem rapidamente trocados, sem a necessidade de grande reconfiguração, aumentando assim o tempo de operação.
Camada de resfriamento abstrata: Os componentes multi-chip e de alta largura de banda do Rubin exigem margens de resfriamento complexas, mas o Fairwater já conseguiu enfrentar este desafio, evitando ciclos de reforma dispendiosos.
Design de energia de próxima geração: O Vera Rubin NVL72 requer uma densidade de potência cada vez mais alta, enquanto a reestruturação de energia do Microsoft Azure (versão internacional) ao longo dos anos (revisões de ciclo de resfriamento líquido, expansão do CDU e barramento de alta amperagem) garante capacidade de implantação imediata.
A super-fábrica de IA modular: Ao contrário de outros fornecedores de nuvem de grande escala, a Microsoft constrói supercomputadores em nível regional em vez de um único local gigante, tornando o lançamento de novos SKUs em todo o mundo muito mais controlável.
06
Transformando design colaborativo
em benefícios para o usuário
A plataforma NVIDIA Rubin marca um importante avanço na computação acelerada, enquanto os centros de dados e superfábricas de IA do Microsoft Azure (versão internacional) completaram o design de engenharia necessário para tirar pleno proveito dessa vantagem.
Anos de co-design com a NVIDIA em conectividade, sistemas de memória, resfriamento, embalagem e arquitetura de escala de rack significam que o NVIDIA Rubin pode ser integrado diretamente à plataforma Microsoft Azure (versão internacional) sem retrabalho. As suposições centrais do NVIDIA Rubin também já foram refletidas em nossos princípios de design de rede, energia, resfriamento, orquestração e troca de Pod. Essa consistência colaborativa traz benefícios imediatos aos clientes, permitindo que eles realizem implantações mais rápidas, escalem mais rapidamente e tenham um impacto mais cedo ao construir a próxima era de IA em larga escala.
Todo o conteúdo publicado nesta conta é uma obra original da Microsoft ou publicado com autorização do titular dos direitos. Sem autorização, nenhuma unidade ou pessoa pode reproduzir, distribuir, transmitir, adaptar, traduzir ou compilar.