Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Análisis del rendimiento de Nvidia en el año fiscal 2026: ¡Se están produciendo tres grandes cambios!
Como gigante mundial de chips de inteligencia artificial (IA), Nvidia ha vuelto a publicar resultados “superiores a las expectativas”. Los informes financieros del cuarto trimestre fiscal 2026 y del año completo de 2026 de su negocio de centros de datos alcanzaron nuevos récords, y las proyecciones para el próximo trimestre también superaron las expectativas del mercado. Al analizar los resultados publicados por Nvidia, se pueden identificar tres grandes cambios en marcha.
Actualización del modelo de negocio
Aunque el fundador y CEO de Nvidia, Jensen Huang, ha enfatizado en varias ocasiones que Nvidia no solo vende chips, sino que es una fábrica de IA, la percepción popular sigue siendo firme en ese sentido. Sin embargo, los últimos resultados confirman el éxito de la actualización del modelo de negocio de Nvidia.
En el año fiscal 2026, Nvidia logró unos ingresos anuales de 215.9 mil millones de dólares, un aumento del 65% interanual. Bajo los principios GAAP, la utilidad neta fue de 120.067 millones de dólares, también un aumento del 65%. Las ganancias por acción alcanzaron los 4.9 dólares, un incremento del 67% respecto al año anterior.
Como núcleo de su negocio, los centros de datos mostraron un crecimiento sólido, con ingresos en el cuarto trimestre que alcanzaron un récord de 62.3 mil millones de dólares, un aumento del 75% interanual. Los ingresos anuales totalizaron 193.7 mil millones de dólares, representando casi el 90% de los ingresos totales de la compañía.
El analista principal de DeepCore Alliance, Gu Zhengshu, señaló que el negocio de centros de datos de Nvidia está en transición de componentes individuales a sistemas integrados de pila completa. Al guiar a los clientes desde la compra de una sola GPU B200 hasta la implementación de sistemas en bastidor GB200 NVL72, el precio medio del producto se elevó de aproximadamente 40,000 dólares a entre 2 y 3 millones de dólares, logrando una actualización en el modelo de negocio.
“Esta integración a nivel de bastidor no solo aumenta el límite de ingresos, sino que también, mediante tecnologías como NVLink, la CPU Grace y software de pila completa, vincula profundamente a los cuatro principales proveedores de servicios en la nube: Amazon, Google, Meta y Microsoft, en el ecosistema de Nvidia, contrarrestando significativamente las amenazas potenciales a largo plazo de los ASICs desarrollados internamente por grandes empresas”, afirmó Gu Zhengshu.
Además, como base del negocio de centros de datos de Nvidia, el segmento de redes experimentó un crecimiento sin precedentes.
Impulsado por la adopción robusta de NVLink, Spectrum X Ethernet y InfiniBand, el negocio de redes de Nvidia mostró un crecimiento destacado, alcanzando ingresos en el año fiscal 2026 que superaron los 31 mil millones de dólares. Comparado con la adquisición de la empresa Mellanox en 2021, que fortaleció su presencia en redes, este segmento ha crecido más de diez veces.
Un analista del sector electrónico comentó a los medios que el negocio de redes es una “arma secreta” importante fuera del ecosistema CUDA de Nvidia, y que con la mayor cantidad de despliegues de nuevos bastidores, la proporción de ingresos por redes seguirá aumentando.
Según Jensen Huang, las redes son una extensión natural de la plataforma: “Ofrecemos todos los componentes de forma abierta, los clientes pueden combinarlos y gestionarlos a diferentes escalas, integrándolos en centros de datos personalizados”. En el cuarto trimestre, Nvidia anunció que proporcionará soporte NVLink a Amazon AWS para integrarlo con sus chips desarrollados internamente.
Apuesta total por la era de la inferencia
El avance en la arquitectura Blackwell, uno de los productos clave de Nvidia, progresa sin problemas, y se planea que la próxima generación, la plataforma Rubin, comience producción en masa en la segunda mitad de 2026. Se informa que, en comparación con la plataforma Blackwell, el modelo de entrenamiento híbrido MoE de Rubin requiere un 75% menos de GPU, y el costo por token de inferencia se reduce hasta diez veces, posicionándose con precisión para la era de inferencia de bajo costo.
Jensen Huang ha reiterado que la IA de agentes inteligentes ha llegado a un punto de inflexión en los últimos dos o tres meses. Aunque la industria ha observado esto durante aproximadamente seis meses, el mundo recién ahora está despertando, y la demanda de potencia de cálculo está creciendo exponencialmente: “La potencia de cálculo es igual a ingresos”.
Como líder en la era de entrenamiento de IA, Nvidia también está invirtiendo fuertemente en inferencia de IA. En diciembre pasado, la compañía adquirió por 20 mil millones de dólares en efectivo la tecnología de inferencia de baja latencia de Groq y su equipo de ingeniería. Esta adquisición no exclusiva, que incluye licencias tecnológicas y transferencia de talento, es la más grande en la historia de Nvidia.
“Esta adquisición tiene un valor estratégico muy alto”, afirmó Yu Yiran, director general de CIC Zhuoshi Consulting. La unidad de procesamiento de lenguaje (LPU) de Groq ofrece ventajas en baja latencia y alto rendimiento en escenarios específicos de inferencia, como la generación de texto con grandes modelos de lenguaje. La adquisición ayuda a Nvidia a integrar diferentes rutas tecnológicas, ofreciendo soluciones de inferencia más completas y consolidando su posición como “tienda única de potencia de cálculo de IA”.
Yuan Yiran agregó que esta estrategia también es necesaria para enfrentar la competencia diferenciada. En el mercado de inferencia, los clientes son más sensibles a costos, eficiencia energética y optimización para escenarios específicos. Con tecnologías como Groq, Nvidia puede responder con una oferta de productos más flexible frente a la competencia de TPU de Google, chips propios de Amazon y diversos ASICs.
Según las últimas “filtraciones” de Jensen Huang, las tecnologías de Groq se integrarán en la próxima arquitectura de Nvidia, mejorando aún más el rendimiento y la rentabilidad de la infraestructura de IA. Se espera que más detalles se revelen en la conferencia GTC de marzo.
A largo plazo, la industria considera que el verdadero desafío para Nvidia no radica en los pedidos, sino en la capacidad de TSMC y otros proveedores clave para cumplir con las órdenes. Gu Zhengshu estima que la capacidad de empaquetado avanzado CoWoS-L de TSMC estará en una escasez extrema hasta mediados de 2026. Además, la oferta de memoria HBM4 se ha convertido en un punto estratégico, y la velocidad de entrega de SK Hynix (que posee el 70% del mercado) y Samsung determinará la velocidad inicial de despliegue de la plataforma Rubin. Recientemente, también se reportó que la escasez de vidrio para PCB afectó gravemente la producción de servidores de IA.
En la conferencia de resultados, la vicepresidenta ejecutiva y CFO de Nvidia, Colette Kress, afirmó que la compañía ha preparado inventarios y compromisos de suministro que cubren hasta 2027. Se espera que los ingresos totales en 2026 continúen creciendo mes a mes, superando la meta de 500 mil millones de dólares establecida anteriormente para las plataformas Blackwell y Rubin.
TSMC también elevó su gasto de capital, estimando que en 2026 alcanzará entre 52 y 56 mil millones de dólares, marcando un récord histórico. El 70-80% de ese gasto se destinará a la expansión de procesos avanzados, y entre el 10 y el 20% se invertirá en empaquetado avanzado para garantizar la capacidad de producción de chips de IA.
La confianza en el gasto en IA no se ha “colapsado”
Aunque los mercados financieros continúan preocupados por una posible burbuja de IA, los principales proveedores de servicios en la nube en todo el mundo siguen invirtiendo con firmeza en infraestructura de IA, lo que respalda los resultados de Nvidia en esta era. Según TrendForce, en 2026, los ocho principales proveedores de servicios en la nube invertirán en conjunto más de 710 mil millones de dólares, con un crecimiento anual del 61%. Estas inversiones incluyen compras continuas de GPU de Nvidia y AMD, así como la expansión de infraestructura ASIC, para garantizar la aplicabilidad de las aplicaciones de IA y la eficiencia en los costos de construcción de centros de datos.
Nvidia continúa profundizando su ecosistema, acercándose a un acuerdo de colaboración con OpenAI y promoviendo alianzas con Anthropic, Meta y otros.
Además de sus clientes en la nube y en la vanguardia de la IA, Nvidia también tiene clientes en el ámbito soberano. La vicepresidenta ejecutiva y CFO, Colette Kress, informó que los ingresos del negocio de IA soberana en 2026 se duplicaron respecto al año anterior, superando los 30 mil millones de dólares, con clientes principales en Canadá, Francia, Países Bajos, Singapur y Reino Unido. Se espera que la inversión en IA soberana crezca en línea con el mercado de infraestructura de IA, y que el gasto de los países en IA sea proporcional a su PIB.
De cara al primer trimestre de 2027, Nvidia estima ingresos de aproximadamente 78 mil millones de dólares, un aumento del 2% interanual, superando ampliamente los 72.78 mil millones de dólares previstos por los analistas, lo que ha sido calificado como una “guía de resultados aplastante”.
“El rendimiento de la compañía es sólido, pero la reacción del mercado a las acciones ha sido moderada, reflejando una valoración ya ajustada y un punto de inflexión en las transacciones de fondos a futuro”, afirmó Yuan Yiran. En el mercado de inferencia, la competencia es más abierta. Google TPU continúa creciendo rápidamente por su relación calidad-precio y compatibilidad; los fabricantes de la nube desarrollan sus propios chips y diversifican sus compras; y los fabricantes nacionales de GPU están logrando avances en varios escenarios específicos, lo que podría erosionar la cuota de mercado y el poder de fijación de precios de Nvidia a largo plazo.
Los clientes de Nvidia también están adoptando estrategias de suministro más diversificadas. El 17 de febrero, Meta, solo una semana después de realizar un pedido a Nvidia, anunció que comprará hasta 6 gigavatios de capacidad de cálculo a AMD.