Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Microsoft Azure data centers adelantan su despliegue, integrándose completamente con la próxima generación de arquitectura de computación de NVIDIA
En la Feria de Electrónica de Consumo (CES) de 2026, se lanzó la plataforma NVIDIA Rubin, y al mismo tiempo se mostró y verificó la capacidad de despliegue de Microsoft Azure (versión internacional). La estrategia de centros de datos a largo plazo de Microsoft está diseñada para momentos como este, permitiendo que los sistemas de próxima generación de NVIDIA se integren directamente en nuestra infraestructura. Hace años, anticipamos las tendencias de la industria, lo que hizo que nuestra infraestructura estuviera preparada para satisfacer sus necesidades de energía, refrigeración, memoria y red. Nuestra colaboración a largo plazo con NVIDIA garantiza que Rubin pueda integrarse directamente en el diseño proactivo de la plataforma de Microsoft Azure (versión internacional).
01
Diseñado para el futuro
El centro de datos de IA de Microsoft Azure (versión internacional) está diseñado específicamente para acelerar el futuro de la computación. Esto permite que el rack NVIDIA Vera Rubin NVL72 se integre sin problemas en la mayor supercomputadora de IA de próxima generación de Microsoft Azure (versión internacional), ya sea en el sitio existente de Fairwater o en futuros proyectos nuevos, desde Wisconsin hasta Atlanta.
La última infraestructura de IA de NVIDIA requiere importantes actualizaciones en energía, refrigeración y optimización del rendimiento, y la experiencia acumulada por Microsoft Azure (versión internacional) en el sitio de Fairwater y a lo largo de múltiples ciclos de actualización durante años demuestra que tenemos la capacidad de mejorar y expandir la infraestructura de tecnología de IA de manera flexible a medida que avanza la tecnología.
02
Más maduro
Escala y rendimiento de entrega de Azure
Microsoft tiene años de experiencia en el diseño y despliegue de infraestructura de IA escalable, ampliamente validada por el mercado. Con cada avance significativo en la tecnología de IA, estas infraestructuras también han evolucionado. Al mantenerse en sincronía con cada generación de infraestructura de computación acelerada de NVIDIA, Microsoft también ha integrado rápidamente las tecnologías innovadoras de NVIDIA y ha logrado entregas a gran escala.
Las implementaciones a gran escala tempranas de las GPU NVIDIA Ampere y Hopper, conectadas a través de la red NVIDIA Quantum-2 InfiniBand, también desempeñaron un papel importante en la incubación y el nacimiento de modelos como GPT-3.5, y otros clústeres establecieron récords de rendimiento de supercomputación, lo que demuestra que, en comparación con otras empresas, podemos poner en línea sistemas de próxima generación más rápidamente y obtener un rendimiento real más alto.
Hemos mostrado la primera y mayor implementación de las plataformas NVIDIA GB200 NVL72 y NVIDIA GB300 NVL72, que integran un único superordenador en forma de rack, lo que puede mejorar significativamente la velocidad de entrenamiento de los modelos de IA, ayudando a Microsoft Azure (versión internacional) a seguir siendo la opción preferida para los clientes que buscan capacidades avanzadas de tecnología de IA.
03
Enfoque sistemático de Azure
El diseño de Microsoft Azure (versión internacional) está destinado a permitir que la computación, la red, el almacenamiento, el software y la infraestructura trabajen juntos como una plataforma integrada. La ventaja duradera que ha construido logra avances en costo y rendimiento que se acumulan con el tiempo.
Maximizar la utilización de la GPU requiere optimizar cada capa en este sistema. Además de que Microsoft Azure (versión internacional) puede adoptar anticipadamente la nueva plataforma de computación acelerada de NVIDIA, la ventaja de Microsoft Azure (versión internacional) también proviene de plataformas periféricas, como el almacenamiento Blob de alto rendimiento, los Grupos de Colocación Proximidad (Proximity Placement Groups) influenciados por los patrones de producción reales y el diseño a nivel regional, así como capas de orquestación como CycleCloud y AKS, optimizadas para la programación de clústeres a gran escala con bajo costo.
Azure Boost y otros motores de descarga abordan los cuellos de botella de IO, red y almacenamiento, permitiendo que los modelos escalen de manera fluida. Almacenamiento más rápido alimenta clústeres más grandes, redes más robustas mantienen su funcionamiento, y la orquestación optimizada mantiene la estabilidad del rendimiento de extremo a extremo. La innovación de primera parte refuerza este ciclo cerrado: las unidades de intercambio de calor líquido pueden satisfacer las exigentes necesidades de refrigeración, los módulos de seguridad de hardware de Azure (HSM) descargan tareas de seguridad, y Azure Cobalt proporciona un rendimiento y eficiencia excepcionales para tareas de computación general y relacionadas con IA. Estas integraciones aseguran la escalabilidad eficiente de todo el sistema, maximizando el valor de la inversión en GPU.
Con este enfoque sistemático, Microsoft Azure (versión internacional) se ha integrado completamente con la plataforma Rubin. Los nuevos sistemas y la plataforma de extremo a extremo que estamos entregando ya se han diseñado para coincidir con precisión con las diversas necesidades tecnológicas de Rubin desde su concepción.
04
Ejecutando la plataforma NVIDIA Rubin
El superchip NVIDIA Vera Rubin proporcionará un rendimiento de inferencia NVFP4 de 50 PF por chip, así como un rendimiento NVFP4 de 3.6 EF por rack, logrando un salto de rendimiento cinco veces mayor en comparación con el sistema de rack NVIDIA GB200 NVL72.
Microsoft Azure (versión internacional) ahora ha incorporado las suposiciones arquitectónicas centrales necesarias para Rubin:
Evolución de NVIDIA NVLink: Se espera que el ancho de banda de interconexión de sexta generación de NVIDIA NVLink en el sistema Vera Rubin NVL72 alcance aproximadamente 260 TB/s en ancho de banda de escalamiento vertical, y la arquitectura de rack de Microsoft Azure (versión internacional) ha sido rediseñada para aprovechar al máximo estas ventajas de ancho de banda y topología.
Red de escalado horizontal de alto rendimiento: La infraestructura de IA de Rubin depende de la red NVIDIA ConnectX-9 de 1,600 Gb/s proporcionada por la infraestructura de red de Microsoft Azure (versión internacional), diseñada para soportar cargas de trabajo de IA a gran escala.
Planificación de refrigeración y densidad HBM4/HBM4e: La pila de memoria de Rubin necesita un rango de control de temperatura más estrecho y una mayor densidad de rack; la refrigeración, el rango de energía y la geometría del rack de Microsoft Azure (versión internacional) ya han sido actualizados para enfrentar las mismas restricciones.
Expansión de memoria impulsada por SOCAMM2: El superchip Rubin utiliza una nueva arquitectura de expansión de memoria; la plataforma de Microsoft Azure (versión internacional) ya ha integrado y validado comportamientos similares de expansión de memoria para proporcionar continuamente datos a los modelos en un entorno a gran escala.
Aumento en el tamaño de chip de GPU y empaquetado multi-chip: Rubin se está moviendo hacia un mayor espacio de ocupación de GPU y un diseño multi-chip. La cadena de suministro, el diseño mecánico y la capa de orquestación de Microsoft Azure (versión internacional) se han ajustado previamente para estas características de expansión física y lógica.
El enfoque de Microsoft Azure (versión internacional) en el diseño de plataformas de computación acelerada de próxima generación como Rubin ha sido validado durante años, incluyendo los siguientes hitos importantes:
Ejecutar el despliegue comercial más grande de InfiniBand a nivel global en múltiples generaciones de GPU.
Construir capas de confiabilidad y tecnologías de gestión de congestión que han liberado una mayor utilización del clúster y una mayor escala de tareas en comparación con los competidores, como lo demuestra nuestra capacidad para publicar resultados de referencia a gran escala líderes en la industria. Por ejemplo, la ejecución de MLPerf en múltiples racks que los competidores nunca han replicado.
Diseñar desde la base junto con Grace Blackwell y Vera Rubin un centro de datos de IA que maximiza el rendimiento a nivel de clúster y el rendimiento por unidad de costo.
05
Diseño innovador
Que distingue a Azure
Arquitectura de intercambio de Pod: Para lograr un servicio rápido, los servidores GPU de Microsoft Azure (versión internacional) están diseñados para ser reemplazables rápidamente, sin necesidad de una extensa reconfiguración, mejorando así el tiempo de funcionamiento.
Capa de refrigeración abstracta: Los componentes multi-chip y de alto ancho de banda de Rubin requieren márgenes de refrigeración complejos, pero Fairwater ya ha podido abordar este desafío, evitando costosos ciclos de remodelación.
Diseño de energía de próxima generación: El Vera Rubin NVL72 requiere una densidad de potencia en constante aumento, y el rediseño de energía de Microsoft Azure (versión internacional) a lo largo de los años (revisiones del ciclo de refrigeración, expansión de CDU y canalones de bus de alta amperaje) asegura la capacidad de despliegue inmediato.
Módulos de supercomputadora de IA modular: A diferencia de otros proveedores de nube de gran escala, Microsoft construye supercomputadoras a nivel regional en lugar de un solo sitio gigante, lo que hace que el lanzamiento de nuevos SKU sea más controlado a nivel global.
06
Transformar el diseño colaborativo
En beneficios para el usuario
La plataforma NVIDIA Rubin marca un importante avance en la computación acelerada, mientras que el centro de datos y la supercomputadora de IA de Microsoft Azure (versión internacional) han completado el diseño de ingeniería necesario para aprovechar plenamente esta ventaja.
Los años de diseño colaborativo con NVIDIA en conectividad, sistemas de memoria, refrigeración, empaquetado y arquitectura a escala de rack significan que NVIDIA Rubin puede integrarse directamente en la plataforma Microsoft Azure (versión internacional) sin necesidad de retrabajo. Las suposiciones centrales de NVIDIA Rubin también se han reflejado en nuestros principios de diseño de red, energía, refrigeración, orquestación y arquitectura de intercambio de Pod. Esta consistencia colaborativa brinda beneficios inmediatos a los clientes, permitiéndoles lograr un despliegue más rápido, una expansión más rápida y un impacto más temprano al construir la próxima era de la IA a gran escala.
Todo el contenido publicado en esta cuenta es una obra original de Microsoft o ha sido autorizado por el titular de derechos. Sin permiso, ninguna entidad o individuo puede copiar, distribuir, transmitir, adaptar, traducir o compilar.