Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
CITIC Securities: Enfocarse en la línea principal de inflación de la cadena de potencia de cálculo, optimista sobre el GTC de Nvidia para fortalecer la confianza en el crecimiento sostenido de la industria de IA
La APP de Zhitong Finance ha sabido que CITIC Securities ha publicado un informe de investigación que indica que la conferencia GTC 2026 de Nvidia está próxima, y se espera que la matriz de productos de chips de la compañía pueda ampliarse aún más. Además de los seis chips principales de la plataforma Vera Rubin AI, es posible que en la conferencia se revelen más detalles sobre el chip Rubin Ultra y los gabinetes, lo que traerá innovaciones en arquitecturas de diseño como interconexión de datos y suministro de energía. La visibilidad de la implementación de nuevos productos como la placa ortogonal y CPO también podría mejorar aún más. Enfocándose en la tendencia inflacionaria de la cadena de capacidad de cálculo, en un contexto donde la demanda global de capacidad de cálculo continúa superando las expectativas, se espera que la prosperidad y los aumentos de precios en los eslabones superiores persistan. Esto sigue siendo la línea principal con mayor certeza para la asignación en el sector tecnológico actual, considerada como una tendencia de “crecimiento en auge”. La firma confía en que la conferencia GTC 2026 de Nvidia reforzará aún más la confianza del mercado en el crecimiento sostenido de la industria de IA y en la realización de su lógica de incremento.
Los principales puntos de vista de CITIC Securities son los siguientes:
Punto 1: La plataforma Rubin trae una nueva combinación de chips, reflejando un diseño de colaboración extrema.
En la feria internacional de electrónica de consumo (CES) 2026, Nvidia presentó la plataforma Vera Rubin AI con un conjunto completo de seis chips principales: Rubin GPU, Vera CPU, BlueField-4 DPU, NVLink 6 Switch, ConnectX-9 SuperNIC y Spectrum-6 Ethernet Switch. Esto incluye todos los componentes principales de los gabinetes, con procesos de fabricación de chips actualizados a la tecnología de 3 nm de TSMC y equipados con HBM4, con una capacidad y ancho de banda de memoria completamente mejorados. Esta generación de productos permite una mayor sinergia entre GPU, CPU y chips de interconexión, y su diseño modular hace que la integridad del gabinete sea más sólida en comparación con la generación anterior, Blackwell.
Punto 2: Es probable que se revelen más detalles sobre Rubin Ultra, con expectativas de innovaciones en arquitectura de interconexión de datos y suministro de energía.
Considerando que en CES 2026 Nvidia confirmó que la plataforma Vera Rubin ya está en producción en serie, se cree que en GTC 2026 Nvidia podría centrarse en revelar más detalles sobre los chips Rubin Ultra y los gabinetes. Además de que el chip Rubin Ultra, mediante la integración de 4 dies de cálculo, duplica el rendimiento en comparación con Rubin, hay dos direcciones principales en la arquitectura que merecen atención:
En cuanto a la interconexión de datos: la escala de expansión se incrementa notablemente. Es probable que el esquema de backplane de cable de cobre se actualice a una arquitectura de red superpuesta de doble capa que combine un backplane ortogonal de PCB (interconexión interna de placas de cálculo y conmutación en el canister) y interconexión óptica (entre canisters). Nuevas tecnologías y materiales como RPCB de 78L, M9 CCL, Q glass, CPO, entre otros, podrían implementarse.
En el sistema de suministro de energía: la alimentación y el consumo energético se están convirtiendo en las principales limitaciones para la expansión de la capacidad de cálculo. Se espera que tecnologías como sistemas de alimentación de corriente continua de alta tensión de 800V (HVDC) y soluciones de alimentación modular se implementen, lo que también podría impulsar mejoras en procesos como PCB embebido y semiconductores de tercera generación como GaN.
Punto 3: Nvidia podría lanzar un nuevo chip de inferencia, el LPU, fortaleciendo su línea de productos de inferencia.
Se espera que Nvidia eleve la inferencia de IA a una infraestructura de nivel de sistema, con una separación PD entre LPU y CPX para fortalecer la línea de productos de inferencia.
En cuanto a LPU: en la conferencia GTC, se prevé que Nvidia presente un nuevo chip de inferencia que integre la tecnología Groq LPU, con una arquitectura de chip personalizada diseñada específicamente para inferencia de modelos de lenguaje grande (LLM). Este chip rediseñará el procesador de flujo tensorial (Tensor Streaming Processor, TSP) y utilizará SRAM como memoria en chip, aumentando significativamente la velocidad de almacenamiento y recuperación de datos, lo que es muy adecuado para los requisitos de ancho de banda de memoria en la etapa de decodificación.
En cuanto a CPX: el Rubin CPX lanzado en 2025 puede reducir eficazmente los costos en la etapa de prellenado (Prefill) y posiblemente utilice GDDR7 o HBM3E como memoria principal. En cuanto a la forma del producto, según SemiAnalysis, es posible que el CPX pase de estar integrado en la bandeja de cálculo Rubin a una forma independiente en un gabinete separado que soporte la salida NVL72 VR200. Además, según información de la cadena industrial, LPU también podría lanzarse en un gabinete independiente con 256 tarjetas LPX.
Punto 4: Se puede anticipar la dirección de actualización de la próxima generación de arquitectura Feynman.
La tendencia en el diseño de la próxima generación de arquitectura Feynman de Nvidia está recibiendo cada vez más atención en la industria, y en GTC 2026 Nvidia podría mostrar contenido relacionado. Combinando la información actual del sector, Trendforce estima que Feynman será uno de los primeros chips en adoptar el proceso A16 de TSMC, con posibles mejoras en suministro de energía mediante Power Delivery en la parte trasera (Backside Power Delivery), liberando más espacio para trazado de rutas, e introduciendo tecnologías de apilamiento 3D para integrar la pila de hardware LPU de Groq.
En cuanto a la implementación, se espera que su producción comience en 2028 y que las entregas a clientes inicien en 2029. Aunque los detalles específicos de la arquitectura Feynman aún no están claros, se considera que la comprensión de Nvidia sobre la dirección futura de la actualización de la capacidad de cálculo de IA será aún más importante. En un contexto de desaceleración de la Ley de Moore, cómo innovar en capacidad, almacenamiento y rendimiento para sostener la iteración continua de la industria de IA, y cómo evolucionarán los roles y la importancia del entrenamiento y la inferencia, así como la visibilidad del ciclo de retorno de inversión en IA, serán temas que Nvidia podría abordar en la conferencia GTC, brindando más inspiración y sorpresas para la industria de IA.
Factores de riesgo:
Riesgos geopolíticos, que los nuevos productos de los líderes en capacidad de cálculo en el extranjero no alcancen las expectativas de volumen, que la demanda del mercado de IA no crezca como se espera, que los precios de componentes como almacenamiento sigan en aumento, riesgos asociados a cambios tecnológicos y actualizaciones de productos, riesgos regulatorios y de privacidad de datos, y la intensificación de la competencia en la industria de PCB.