Wall Street comenta sobre GTC: En la definición de Nvidia, el poder de cómputo es ingresos, el Token es la nueva materia prima

Preguntas sobre IA · ¿Cómo la reducción significativa en el costo de Token impulsa la expansión de la demanda de IA?

La conferencia anual GTC de Nvidia transmite una señal clave: la lógica comercial del poder de cómputo de IA está siendo reestructurada fundamentalmente—los Tokens se han convertido en una nueva materia prima, y el poder de cómputo es igual a ingresos.

La dirección de Nvidia en esta GTC elevó significativamente la previsión de ventas de centros de datos de 500 mil millones de dólares (hasta 2026) a más de 1 billón de dólares (acumulado de 2025 a 2027), y aclaró que las ventas de los sistemas independientes Vera CPU y LPX rack se contabilizarán adicionalmente. Wall Street ve esta conferencia como un respaldo fuerte a la continuidad del ciclo de IA de Nvidia.

Según Chase Trading, el último informe de JP Morgan indica que esta cifra significa que, en comparación con las expectativas actuales de Wall Street para los ingresos de centros de datos en 2026-2027, hay un potencial alcista de al menos 50 a 70 mil millones de dólares.

El informe de Bank of America cita directamente declaraciones de la dirección de Nvidia—“Token es una nueva materia prima, el poder de cómputo equivale a ingresos”—y señala que el sistema Blackwell ha logrado reducir el costo por Token en hasta 35 veces respecto a la generación anterior Hopper, y que la serie Rubin que se lanzará próximamente podría reducirlo aún entre 2 y 35 veces, dependiendo del tipo de carga de trabajo y la configuración arquitectónica.

En el marco narrativo de Nvidia, esta tendencia de compresión continua del costo de Token es la fuerza motriz fundamental para la expansión de la demanda a escala.

La visibilidad de la demanda se duplica, impulsada por clientes de gran escala y el mercado empresarial

La dirección de Nvidia reveló que las órdenes de compra confiables para los sistemas Blackwell y Vera Rubin superan el billón de dólares, duplicando los 500 mil millones anunciados en la conferencia GTC de centros de datos en octubre de 2025. Además, indicaron que las órdenes adicionales y los pedidos pendientes para 2027 podrían seguir acumulándose en los próximos 6 a 9 meses.

La estructura de demanda se diversifica: aproximadamente 60% proviene de grandes proveedores de la nube (el consumo interno de IA está migrando de cargas de trabajo de recomendación/búsqueda a modelos de lenguaje grande), y el resto, alrededor del 40%, se distribuye entre empresas de IA nativas en la nube con CUDA, socios de Nvidia en la nube, clientes soberanos de IA y clientes industriales/empresariales.

Bank of America señala que esta nueva perspectiva de 1 billón de dólares coincide en gran medida con las expectativas previas de Wall Street de unos 9700 millones de dólares en ingresos de centros de datos en ese período de tres años, validando la lógica similar a la de la previsión anterior de 5000 millones de dólares en octubre de 2025, que confirmaba una expectativa de aproximadamente 4500 millones.

Es importante destacar que la dirección de Nvidia dedicó una parte significativa de su discurso en esta conferencia a explicar la aceleración de cargas de trabajo tradicionales en las empresas, como un vector de demanda.

Anunció colaboraciones con IBM (acelerando WatsonX), Google Cloud (acelerando BigQuery, logrando aproximadamente un 76% de ahorro en costos con Snap), Dell (plataforma de datos de IA), y lanzó las dos principales bibliotecas base CUDA-X: cuDF y cuVS.

JP Morgan considera que esta dirección “está siendo severamente subestimada por el mercado”—su lógica radica en que, dado que la ley de Moore ha dejado de ser efectiva, la aceleración especializada en dominios es la única vía viable, lo que ampliará el mercado abordable de Nvidia más allá del ciclo de entrenamiento/inferencia de IA.

Integración de Groq LPU: el lanzamiento más importante a nivel de arquitectura

JP Morgan califica la integración de Groq 3 LPU con Vera Rubin como el “lanzamiento de producto más importante a nivel de arquitectura” en esta GTC.

Esta arquitectura desacoplada combina el GPU Rubin (alto rendimiento, 288GB HBM4, ancho de banda de 22TB/s, 50 PFLOPS NVFP4) con el LPU de Groq (baja latencia, 500MB de SRAM en chip, 150TB/s de ancho de banda SRAM, 1.2 PFLOPS FP8): la precarga se realiza en Vera Rubin, la atención y decodificación también en Rubin, mientras que las redes feedforward y la generación de tokens se descargan en el LPU de Groq.

El rack LPX integra 256 LPUs, ofreciendo 128GB de SRAM agregado, 40PB/s de ancho de banda de memoria y 315 PFLOPS de capacidad de inferencia, y se espera que esté disponible en el tercer trimestre de 2026.

La dirección de Nvidia afirmó que para cargas de trabajo que requieren velocidades de Token extremadamente altas (generación de código, cálculos de ingeniería, inferencia de contexto largo), aproximadamente el 25% del consumo de energía del centro de datos se asignará a LPX, mientras que el 75% restante será para la configuración Vera Rubin NVL72.

Datos de Bank of America muestran que, tras integrar el sistema Rubin con LPX basado en SRAM, la eficiencia en cargas de trabajo de alta gama y baja latencia puede mejorar hasta 35 veces respecto a la generación anterior. JP Morgan señala que esta arquitectura responde directamente a la contradicción fundamental de que un solo procesador no puede optimizar simultáneamente el rendimiento (limitado por FLOPS) y la latencia (limitada por el ancho de banda), permitiendo a Nvidia competir eficazmente en el mercado de inferencia de alta gama, tradicionalmente dominado por ASICs.

Avances en cables y CPO: múltiples rutas sin apuesta única

La dirección de Nvidia respondió directamente en la conferencia a la disputa entre cables de cobre y CPO (óptica empaquetada en co-montaje), confirmando que avanzarán en ambas rutas simultáneamente.

En la generación Vera Rubin, el chasis Oberon usa cables de cobre para extenderse hasta NVL72 y óptica para NVL576; el switch Ethernet óptico Spectrum-6 SPX ya está en producción, desarrollado en colaboración con TSMC, y su eficiencia de consumo de energía es cinco veces mayor que la de los transceptores tradicionales, con una resiliencia diez veces superior.

Para Rubin Ultra (segundo semestre de 2027), el chasis Kyber usará extensión NVLink por cable de cobre (hasta 144 GPU), y también ofrecerá una opción de intercambio NVLink basada en CPO. Feynman (2028) soportará explícitamente ambas extensiones, cobre y CPO, y estará equipado con Spectrum-7 (204T, CPO) para expansión lateral.

Bank of America enfatiza que la adopción de switches de extensión CPO y expansión lateral es completamente opcional para los clientes, quienes podrán seguir usando cables de cobre hasta que consideren conveniente. JP Morgan coincide en que estas dos rutas están en línea con sus previsiones anteriores, y espera que la extensión por cobre siga dominando en configuraciones NVL72/NVL144 al menos hasta 2027, mientras que CPO irá ganando participación en expansiones laterales y configuraciones NVL576+.

Vera CPU: una nueva fuente de ingresos de miles de millones de dólares dirigida a IA de agentes inteligentes

La dirección de Nvidia afirmó claramente en la conferencia que la línea de negocio independiente de Vera CPU “ya está confirmada como un negocio de decenas de miles de millones de dólares”, y Bank of America señala que esta fuente de ingresos aún no está reflejada en las expectativas actuales del mercado, constituyendo una contribución incremental.

Vera CPU cuenta con 88 núcleos ARM Olympus propios, un sistema de memoria LPDDR5X con 1.2TB/s de ancho de banda (la mitad del consumo de las CPU tradicionales de servidores), y se conecta con GPU a 1.8TB/s mediante NVLink-C2C (equivalente a siete veces PCIe Gen 6). El chasis de Vera CPU integra 256 CPUs refrigeradas por líquido, soportando más de 22,500 entornos CPU concurrentes.

La dirección enfatizó que las CPU están convirtiéndose en un cuello de botella para la expansión de agentes inteligentes—el aprendizaje por refuerzo y los flujos de trabajo de agentes requieren numerosos entornos CPU para probar y validar las salidas de los modelos de GPU. Meta ya despliega a escala la generación anterior Grace CPU, y Vera reemplazará en 2027.

JP Morgan califica esta línea de ingresos de CPU como de alto margen, repetible (se despliega junto a los racks de GPU en fábricas de IA), y en estrecha relación con la curva de adopción de IA de agentes inteligentes que Nvidia está activamente catalizando.

La hoja de ruta del producto se extiende hasta 2028, con un ritmo anual de lanzamientos que continúa fortaleciéndose

Nvidia reafirmó su ritmo anual de lanzamientos de plataformas: Blackwell (2024) → Blackwell Ultra (2025) → Rubin (2026) → Rubin Ultra (2027) → Feynman (2028).

Rubin Ultra usará una configuración de 4 GPU, con 1TB de HBM4e, y añadirá el chip LPU LP35 (introduciendo por primera vez la potencia de cálculo NVFP4). El chasis Kyber soportará hasta 144 GPU por NVLink (séptima generación, 3.6Tb/s por GPU, ancho de banda agregado NVL576 de 1.5Pb/s).

Los detalles de Feynman superan las expectativas del mercado:

Utilizará un proceso TSMC A16 (1.6nm), con apilamiento de chips y HBM personalizado; el CPU se llamará Rosa (en honor a Rosalind Franklin), diseñado específicamente para orquestar cargas de trabajo de agentes inteligentes entre GPU, LPU, almacenamiento y red; el nuevo LPU será LP40, desarrollado en colaboración con el equipo interno de Groq; además, incluirá BlueField-5 DPU, tarjeta de red superrápida ConnectX-10, NVLink 8 y Spectrum-7 (204T, CPO).

JP Morgan considera que la plataforma verticalmente integrada de Nvidia (que ya abarca siete chips, cinco sistemas de chasis y un stack de software) es difícil de copiar, y que la aceleración de inferencia y cargas de trabajo tradicionales, junto con la expansión estructural del mercado abordable y la base de clientes en constante crecimiento, sustentan un ciclo de inversión en IA más duradero de lo que el mercado actualmente prevé.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado