Análisis: El CEO de Nvidia prepara a los inversores para una batalla renovada con Intel y AMD

Análisis: El CEO de Nvidia prepara a los inversores para una nueva batalla con Intel, AMD

Stephen Nellis

Thu, 26 de febrero de 2026 a las 1:47 p. m. GMT+9 4 min de lectura

En este artículo:

NVDA

INTC

AMD

META

Por Stephen Nellis

SAN FRANCISCO, 25 de feb (Reuters) - Nvidia puede haber hecho su enorme fortuna a partir de las unidades de procesamiento de gráficos especializadas (GPUs) que se usan para impulsar servidores de inteligencia artificial, pero el CEO Jensen Huang cada vez expresa con más fervor su amor por el CPU, de propósito más general.

El CPU, o unidad central de procesamiento, durante décadas se consideró tradicionalmente como el “cerebro” principal de una computadora: un producto asociado la mayor parte del tiempo con Intel o, a veces, con Advanced Micro Devices.

Huang suele decir ‌que donde antes el 90% de la computación ocurría en CPUs y el 10% en chips como los suyos, la proporción se había invertido en los últimos años.

Pero el CPU ahora está volviendo - cada vez se ve como una opción equivalente, si no mejor, a medida que las empresas de IA pasan de entrenar sus modelos a desplegarlos - un cambio del que Nvidia planea formar parte de manera importante.

“Nos encantan los CPUs tanto como las GPUs”, dijo Huang en una llamada con analistas el miércoles, en el contexto de los resultados del cuarto trimestre de la compañía.

Les aseguró que Nvidia no solo estaba lista para el regreso del CPU al centro de atención, sino también que las propias ofertas de CPU de Nvidia para centros de datos, lanzadas por primera vez en 2023, superarían a los rivales.

El mes pasado, en el Consumer Electronics Show en Las Vegas en enero, Huang también dijo que la cantidad de CPUs Nvidia de alto rendimiento que se usan en centros de datos ⁠se dispararía y que no se sorprendería “si Nvidia se convirtiera en uno de los mayores fabricantes de CPUs del mundo”.

EL CPU VERSUS LA GPU

Durante décadas, CPUs y GPUs han servido para tareas de computación diferentes. Las CPUs son chips de propósito general diseñados para manejar cualquier tarea matemática que un programador de software pueda ⁠lanzar al chip a una velocidad razonable, dado el abanico de trabajos.

Las GPUs, en cambio, se especializan en ejecutar un conjunto más simple de tareas matemáticas, pero realizando esos cálculos sencillos en paralelo miles de veces al mismo tiempo.

En los videojuegos, eso significaba calcular el valor de miles de píxeles en una pantalla muchas veces por segundo, y en el trabajo de IA significa multiplicar y sumar grandes matrices ‌de ​números que los desarrolladores usan para representar datos del mundo real, como palabras e imágenes.

Las empresas de IA están cada vez más ⁠desplegando “agentes” que pueden realizar de forma independiente tareas como escribir código,‌ examinar documentos y redactar informes de investigación; y ese tipo de computación “está ocurriendo cada vez más, y a veces principalmente, en el CPU”, dijo Ben Bajarin, analista de Creative Strategies.

El servidor de IA insignia actual de Nvidia, llamado NVL72, contiene 36 de sus CPUs y 72 de sus GPUs. Bajarin cree que eso podría cambiar a una proporción 1 a 1 para el trabajo llamado “agentic” o incluso que se podría omitir la GPU por completo.

La historia continúa  

NVIDIA BUSCA DEMOSTRAR UN PUNTO

Al subrayar sus ambiciones en CPU, Nvidia anunció recientemente un acuerdo con Meta Platforms que hará que el dueño de Facebook use grandes volúmenes de sus chips de CPU Grace y Vera de forma independiente. Eso es un desarrollo relativamente nuevo frente a los servidores de IA actuales de Nvidia, donde ‌cada CPU va acompañada de varias GPUs.

Aunque no es que Meta haya cambiado de proveedor para CPUs - ‌solo está asegurando más proveedores. Días después, AMD también anunció un gran acuerdo con Meta que también ‌incluía sus CPUs, que Meta ha estado comprando durante años.

En la llamada con ‌analistas, Huang argumentó que Nvidia había adoptado un enfoque fundamentalmente diferente para los CPUs.

Explicó por qué Nvidia había minimizado un enfoque para dividir los chips en partes más pequeñas que Intel y AMD han usado, diciendo que el CPU de Nvidia podía realizar ‌muchas tareas simples en fila con buen acceso a mucha memoria de computadora.

“Está diseñado para centrarse en capacidades de procesamiento de datos muy altas”, dijo Huang en la llamada. “Y la razón de eso es porque la mayoría de los problemas de computación que nos interesan están impulsados por datos: la inteligencia artificial siendo uno”.

Dave Altavilla, ​analista principal en HotTech Vision and Analysis, dijo que Nvidia está ‌intentando demostrar que el tipo de CPU que antes se suministraba principalmente por Intel “ya no es la base predeterminada asumida de la infraestructura moderna de computación. En cambio, se convierte ‌en solo una opción arquitectónica entre varias”.

Huang dijo que Nvidia tendría más información que revelar sobre sus CPUs en la conferencia anual de desarrolladores de la compañía en Silicon Valley el próximo mes.

(Reporte de Stephen Nellis en San Francisco; Edición de Peter Henderson y Edwina Gibbs)

Términos y Política de Privacidad

Panel de Privacidad

Más información

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado