AMD(AMD.US)Hacia la era de la infraestructura de IA a nivel rack! La colaboración entre AMD y Tianhong Technology(CLS.US) para crear el clúster de computación Helios

robot
Generación de resúmenes en curso

AMD(AMD.US) ha anunciado una importante colaboración con Celestica(CLS.US),
que posicionará la nueva plataforma de infraestructura de AI a nivel de rack de AMD, Helios,
en el mercado global de centros de datos AI, compitiendo con la plataforma de AI a nivel de rack NVL72 de NVIDIA.
Para AMD, que busca capturar hasta el 90% de la participación de mercado de NVIDIA(NVDA.US)
en el ámbito de clústeres de computación AI valorados en billones de dólares,
Helios es crucial para las perspectivas de ingresos y beneficios de AMD.
AMD está elevando su enfoque competitivo hacia sistemas de racks completos,
y su clúster de AI Helios, que se lanzará a gran escala a finales de 2026,
se enfrentará directamente a la “infraestructura de AI a nivel de rack” de NVIDIA.

Las dos compañías declararon en un comunicado que,
al lanzar esta plataforma de computación AI, Celestica será responsable
del desarrollo, diseño y fabricación de interruptores de red de alto rendimiento
que escalarán verticalmente dentro de la arquitectura del clúster de AI a nivel de rack de AMD Helios.

AMD Helios es un conjunto completo de infraestructura de AI a nivel de rack,
diseñado específicamente para tareas de entrenamiento e inferencia de AI a gran escala.
La arquitectura AI a nivel de rack es actualmente el método de computación en clúster más popular,
donde el rack completo, en lugar de un solo servidor CPU/GPU,
actúa como la unidad de cálculo fundamental para cargas de trabajo de AI de gran volumen.
Integra la capacidad de cálculo esencial de AI GPU/AI ASIC,
la arquitectura de red de alto rendimiento y unidades de refrigeración líquida
en un único sistema de infraestructura de computación AI,
para entrenar de manera eficiente modelos de lenguaje grandes (LLM)
o manejar cargas de trabajo de AI basadas en grandes modelos.

Las dos compañías también afirmaron que estos interruptores de escalamiento vertical
utilizarán chips de red de arquitectura de última generación
para lograr un sistema de interconexión de alta velocidad entre las GPU AI de la serie AMD Instinct MI450,
ofreciendo así capacidades de cálculo de vanguardia optimizadas para infraestructuras de AI a gran escala.

“La solución de AI a nivel de rack Helios representa un nuevo plano para la infraestructura de AI,
permitiendo a los clientes desplegar centros de datos AI a gran escala
con los indicadores de rendimiento, eficiencia y flexibilidad necesarios
para manejar cargas de trabajo de AI masivas de próxima generación”,
dijo Forrest Norrod, vicepresidente ejecutivo y gerente general de la división de soluciones de centros de datos de AMD, en un comunicado.

Las dos compañías señalaron que están colaborando para respaldar
el despliegue eficiente y con un solo clic de Helios en plataformas de computación en la nube,
organizaciones empresariales y grandes entornos de investigación.
Gracias a la colaboración para impulsar la capacidad de producción de Helios,
el lunes, las acciones de Celestica subieron alrededor del 3%,
y las acciones de AMD subieron más del 3% en un momento,
cerrando finalmente con un aumento del 1.7%.

Se espera que la infraestructura de computación AI Helios de AMD
comience a suministrar en masa a grandes clientes de computación en la nube,
como Microsoft y Amazon, a finales de 2026.

Unión de fuerzas contra el “sistema Blackwell” de NVIDIA

La colaboración entre AMD y Celestica para acelerar la llegada al mercado
de la plataforma de AI a nivel de rack Helios se produce
en un momento en que AMD se une a varios líderes tecnológicos para enfrentarse
a la solución de infraestructura de computación AI verticalmente integrada dominada por NVIDIA.
Anteriormente, AMD anunció una colaboración con HPE y Broadcom,
con el objetivo de proporcionar infraestructura de computación AI a nivel de rack abierta
y de alto rendimiento para clústeres de computación y grandes centros de datos AI,
y también busca acelerar el avance de la investigación “AI soberana” a nivel global.

HPE se convertirá en uno de los primeros proveedores de sistemas
en adoptar la arquitectura de clúster de AI a nivel de rack “Helios” de AMD,
y AMD y HPE integrarán un interruptor de expansión de alto rendimiento
dentro del rack personalizado, diseñado en colaboración con el líder en infraestructura de red Broadcom.
Este sistema de computación de AI de gran escala está diseñado
para simplificar el despliegue de clústeres de infraestructura de computación AI a gran escala,
y ofrecer una solución de clúster de AI a nivel de rack de AMD más rentable
y eficiente en comparación con el sistema Blackwell de NVIDIA.

Helios es, en esencia, la respuesta de AMD al sistema de infraestructura de AI a nivel de rack
de NVIDIA Blackwell NVL72/GB200 NVL72.
Ambos diseñan un sistema de 72 GPUs+CPUs+interconexión de alta velocidad+refrigeración líquida+
sistemas de ingeniería a nivel de rack como la unidad fundamental de carga de trabajo de AI,
en lugar de tratar cada servidor individual como el producto central.
AMD define a Helios como una arquitectura de rack abierta basada en OCP Open Rack Wide,
orientada hacia el entrenamiento e inferencia a gran escala; NVIDIA define a GB200 NVL72
como una plataforma a nivel de rack de refrigeración líquida compuesta por 36 CPUs Grace + 72 GPUs Blackwell.
En otras palabras, Helios no es solo “otro lote de GPUs MI450”,
sino que es la primera vez que AMD enfrenta directamente el sistema NVL72 de NVIDIA
con un sistema de racks completos.

En comparación con la serie de productos de GPU AI anterior de AMD,
la transición de rendimiento de Helios es muy grande.
AMD describe claramente en sus benchmarks: Helios puede lograr
hasta 36 veces el aumento de rendimiento en comparación con la anterior plataforma de computación AI de AMD,
lo que también indica que la estrategia de infraestructura de computación AI de AMD
ha cambiado de “vender GPUs individuales de mayor rendimiento”
a “vender fábricas de AI a nivel de rack”,
es decir, empaquetar GPU, CPUs, NIC, refrigeración líquida, topología de red y ROCm
como una solución completa de computación AI para la venta.

El mayor atractivo de Helios es su memoria y conectividad abierta.
AMD afirma que el Helios de 72 GPUs puede ofrecer hasta 2.9 exaFLOPS FP4,
1.4 exaFLOPS FP8, 31TB HBM4,
1.4PB/s de ancho de banda de memoria agregada y 260TB/s de ancho de banda de interconexión scale-up;
en comparación con el GB200 NVL72 de NVIDIA, Helios es claramente más agresivo
en términos de capacidad de memoria, ancho de banda scale-up bruto y diseño de rack abierto,
lo que lo hace más atractivo para sistemas de entrenamiento/inferencia
sensibles a la memoria y con grandes modelos de contexto.
AMD incluso afirma públicamente que la capacidad de memoria de Helios es un 50% superior
a la de la próxima plataforma de computación de NVIDIA, el sistema Vera Rubin.

¿Por qué AMD eligió a Celestica?

La razón por la que AMD necesita asociarse con Celestica es bastante práctica:
el cuello de botella de los sistemas de AI a nivel de rack
ya no está solo en las GPUs, sino en interruptores de red de alta velocidad,
proyectos de refrigeración líquida, rendimiento de fabricación,
capacidad de entrega y resiliencia de la cadena de suministro.

AMD señala en su comunicado que Celestica es responsable
del desarrollo, diseño y fabricación de los interruptores de red scale-up de Helios,
los cuales, basados en UALoE,
determinan si el clúster MI450 puede funcionar de manera estable
en grandes clústeres de AI. El valor de Celestica no radica en “fabricar un componente ordinario”,
sino en ayudar a AMD a superar la parte más difícil del proceso
de convertirse de una empresa de chips a una empresa de sistemas:
hacer que la arquitectura de clúster de computación abierta se ejecute de manera efectiva,
se comercialice y se entregue según los requisitos de los hyperscalers (gigantes de la computación en la nube a gran escala).
En esencia, esto está en línea con la lógica industrial
que NVIDIA ha enfatizado cada vez más en los últimos años sobre sistemas de racks,
redes de alto rendimiento y la máxima colaboración de software de operaciones.

Celestica es un proveedor de servicios de fabricación electrónica (EMS/ODM)
y soluciones de infraestructura con sede en Canadá,
que no solo se dedica a la ensamblaje de hardware tradicional,
sino que también desempeña un papel clave en el diseño, fabricación e integración
de productos relacionados con la infraestructura de centros de datos AI (como interruptores de red, servidores,
soluciones a nivel de rack, componentes de red de alta capacidad, etc.);
con el crecimiento masivo de centros de datos AI
por parte de proveedores de servicios en la nube y grandes empresas tecnológicas (como Google, Meta, Amazon, etc.),
la demanda de conexiones de red de alta velocidad, hardware personalizado
y soluciones de integración a nivel de rack ha aumentado considerablemente.
Celestica es un proveedor clave de interruptores de red de alto rendimiento,
servidores y módulos de hardware relacionados con ASIC/TPU,
así como servicios de integración necesarios para estos grandes centros de datos.
Las acciones de la compañía han aumentado un 220% durante todo 2025.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado