CITIC Securities: Enfocarse en la línea principal de inflación de la cadena de potencia de cálculo, optimista sobre el GTC de Nvidia para fortalecer la confianza en el crecimiento sostenido de la industria de IA

robot
Generación de resúmenes en curso

La APP de Zhitong Finance ha sabido que CITIC Securities ha publicado un informe de investigación que indica que la conferencia GTC 2026 de Nvidia está próxima, y se espera que la matriz de productos de chips de la compañía pueda ampliarse aún más. Además de los seis chips principales de la plataforma Vera Rubin AI, es posible que en la conferencia se revelen más detalles sobre el chip Rubin Ultra y los gabinetes, lo que traerá innovaciones en arquitecturas de diseño como interconexión de datos y suministro de energía. La visibilidad de la implementación de nuevos productos como la placa ortogonal y CPO también podría mejorar aún más. Enfocándose en la tendencia inflacionaria de la cadena de capacidad de cálculo, en un contexto donde la demanda global de capacidad de cálculo continúa superando las expectativas, se espera que la prosperidad y los aumentos de precios en los eslabones superiores persistan. Esto sigue siendo la línea principal con mayor certeza para la asignación en el sector tecnológico actual, considerada como una tendencia de “crecimiento en auge”. La firma confía en que la conferencia GTC 2026 de Nvidia reforzará aún más la confianza del mercado en el crecimiento sostenido de la industria de IA y en la realización de su lógica de incremento.

Los principales puntos de vista de CITIC Securities son los siguientes:

Punto 1: La plataforma Rubin trae una nueva combinación de chips, reflejando un diseño de colaboración extrema.

En la feria internacional de electrónica de consumo (CES) 2026, Nvidia presentó la plataforma Vera Rubin AI con un conjunto completo de seis chips principales: Rubin GPU, Vera CPU, BlueField-4 DPU, NVLink 6 Switch, ConnectX-9 SuperNIC y Spectrum-6 Ethernet Switch. Esto incluye todos los componentes principales de los gabinetes, con procesos de fabricación de chips actualizados a la tecnología de 3 nm de TSMC y equipados con HBM4, con una capacidad y ancho de banda de memoria completamente mejorados. Esta generación de productos permite una mayor sinergia entre GPU, CPU y chips de interconexión, y su diseño modular hace que la integridad del gabinete sea más sólida en comparación con la generación anterior, Blackwell.

Punto 2: Es probable que se revelen más detalles sobre Rubin Ultra, con expectativas de innovaciones en arquitectura de interconexión de datos y suministro de energía.

Considerando que en CES 2026 Nvidia confirmó que la plataforma Vera Rubin ya está en producción en serie, se cree que en GTC 2026 Nvidia podría centrarse en revelar más detalles sobre los chips Rubin Ultra y los gabinetes. Además de que el chip Rubin Ultra, mediante la integración de 4 dies de cálculo, duplica el rendimiento en comparación con Rubin, hay dos direcciones principales en la arquitectura que merecen atención:

  1. En cuanto a la interconexión de datos: la escala de expansión se incrementa notablemente. Es probable que el esquema de backplane de cable de cobre se actualice a una arquitectura de red superpuesta de doble capa que combine un backplane ortogonal de PCB (interconexión interna de placas de cálculo y conmutación en el canister) y interconexión óptica (entre canisters). Nuevas tecnologías y materiales como RPCB de 78L, M9 CCL, Q glass, CPO, entre otros, podrían implementarse.

  2. En el sistema de suministro de energía: la alimentación y el consumo energético se están convirtiendo en las principales limitaciones para la expansión de la capacidad de cálculo. Se espera que tecnologías como sistemas de alimentación de corriente continua de alta tensión de 800V (HVDC) y soluciones de alimentación modular se implementen, lo que también podría impulsar mejoras en procesos como PCB embebido y semiconductores de tercera generación como GaN.

Punto 3: Nvidia podría lanzar un nuevo chip de inferencia, el LPU, fortaleciendo su línea de productos de inferencia.

Se espera que Nvidia eleve la inferencia de IA a una infraestructura de nivel de sistema, con una separación PD entre LPU y CPX para fortalecer la línea de productos de inferencia.

En cuanto a LPU: en la conferencia GTC, se prevé que Nvidia presente un nuevo chip de inferencia que integre la tecnología Groq LPU, con una arquitectura de chip personalizada diseñada específicamente para inferencia de modelos de lenguaje grande (LLM). Este chip rediseñará el procesador de flujo tensorial (Tensor Streaming Processor, TSP) y utilizará SRAM como memoria en chip, aumentando significativamente la velocidad de almacenamiento y recuperación de datos, lo que es muy adecuado para los requisitos de ancho de banda de memoria en la etapa de decodificación.

En cuanto a CPX: el Rubin CPX lanzado en 2025 puede reducir eficazmente los costos en la etapa de prellenado (Prefill) y posiblemente utilice GDDR7 o HBM3E como memoria principal. En cuanto a la forma del producto, según SemiAnalysis, es posible que el CPX pase de estar integrado en la bandeja de cálculo Rubin a una forma independiente en un gabinete separado que soporte la salida NVL72 VR200. Además, según información de la cadena industrial, LPU también podría lanzarse en un gabinete independiente con 256 tarjetas LPX.

Punto 4: Se puede anticipar la dirección de actualización de la próxima generación de arquitectura Feynman.

La tendencia en el diseño de la próxima generación de arquitectura Feynman de Nvidia está recibiendo cada vez más atención en la industria, y en GTC 2026 Nvidia podría mostrar contenido relacionado. Combinando la información actual del sector, Trendforce estima que Feynman será uno de los primeros chips en adoptar el proceso A16 de TSMC, con posibles mejoras en suministro de energía mediante Power Delivery en la parte trasera (Backside Power Delivery), liberando más espacio para trazado de rutas, e introduciendo tecnologías de apilamiento 3D para integrar la pila de hardware LPU de Groq.

En cuanto a la implementación, se espera que su producción comience en 2028 y que las entregas a clientes inicien en 2029. Aunque los detalles específicos de la arquitectura Feynman aún no están claros, se considera que la comprensión de Nvidia sobre la dirección futura de la actualización de la capacidad de cálculo de IA será aún más importante. En un contexto de desaceleración de la Ley de Moore, cómo innovar en capacidad, almacenamiento y rendimiento para sostener la iteración continua de la industria de IA, y cómo evolucionarán los roles y la importancia del entrenamiento y la inferencia, así como la visibilidad del ciclo de retorno de inversión en IA, serán temas que Nvidia podría abordar en la conferencia GTC, brindando más inspiración y sorpresas para la industria de IA.

Factores de riesgo:

Riesgos geopolíticos, que los nuevos productos de los líderes en capacidad de cálculo en el extranjero no alcancen las expectativas de volumen, que la demanda del mercado de IA no crezca como se espera, que los precios de componentes como almacenamiento sigan en aumento, riesgos asociados a cambios tecnológicos y actualizaciones de productos, riesgos regulatorios y de privacidad de datos, y la intensificación de la competencia en la industria de PCB.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado