La industria de la IA traslada su enfoque hacia la "inferencia", ¿pueden las "expectativas de billones" de Nvidia conmover al mercado?

robot
Generación de resúmenes en curso

【Corresponsal especial del Global Times en Estados Unidos, Feng Yaren; reporteros del Global Times, Yang Shuyu y Ren Zhong】En medio de la competencia mundial en inteligencia artificial (IA) en su punto más álgido, la gigante de chips Nvidia vuelve a ser el centro de atención en el juego tecnológico. El 16 de agosto, la conferencia anual GTC de Nvidia en San José, California, dio inicio. Este evento industrial atrajo a decenas de miles de profesionales tecnológicos y provocó un análisis profundo por parte de los medios sobre la lucha por el poder computacional: en un entorno rodeado de productos competitivos con buena relación calidad-precio y con las grandes empresas acelerando su “desnacionalización” de Nvidia, ¿cómo consolidará esta potencia en capacidad de cálculo su posición dominante? ¿Podrá su valoración de hasta 5 billones de dólares mantenerse en medio de la intensa ola de “razonamiento”? El mercado observa expectante la próxima confrontación entre Nvidia y sus challengers.

Usar la tecnología para proteger la “barreira de protección”

En la conferencia, el fundador de Nvidia, Jensen Huang, anunció un nuevo procesador central (CPU) y un sistema de IA basado en la tecnología de Groq, una startup especializada en chips personalizados para razonamiento, con el objetivo de mejorar la velocidad de respuesta de los sistemas de inteligencia artificial. Se informó que este nuevo sistema de servidores de próxima generación combinará la unidad de procesamiento de lenguaje (LPU) desarrollada por Groq con el servidor Vera Rubin, creando una infraestructura de razonamiento de IA completamente nueva.

Según Bloomberg, la LPU, como un chip dedicado, es experta en acelerar el proceso de “razonamiento” de grandes modelos de lenguaje, es decir, en generar respuestas a partir de indicaciones de IA. En esta arquitectura, Nvidia la ofrece como “coprocesador” para colaborar con el acelerador principal, que funciona mejor al manejar tareas más complejas y en múltiples etapas. Huang afirmó que esta arquitectura ofrece un rendimiento computacional significativamente superior a la generación anterior de arquitecturas GPU.

En los últimos años, Nvidia ha acelerado notablemente su ritmo de innovación tecnológica. Hoy en día, la compañía ya no se limita a sus emblemáticos GPU. “Están conectando estas tecnologías para proteger su barrera de protección”, afirmó Daniel Newman, CEO de Futurum Group, una firma de análisis tecnológico, al hablar de este nuevo producto. En la conferencia GTC, Huang también mostró los avances de Nvidia en robótica, conducción autónoma y agentes de IA.

El precio de sus acciones cerró en alza ese día

Nvidia intenta calmar la ansiedad del mercado por su crecimiento mediante expectativas de rendimiento ambiciosas. Anteriormente, la compañía proyectó que los chips basados en las arquitecturas Blackwell y Rubin generarían hasta 500 mil millones de dólares en ingresos para 2026. Este año, en la GTC, Huang predijo que su procesador de IA más reciente ayudará a la empresa a alcanzar un billón de dólares en ventas antes de 2027.

Impulsada por esta previsión, la acción de Nvidia subió un 4% en ese día, aunque luego la ganancia se redujo y finalmente cerró con un aumento del 1,2%, frenando momentáneamente las dudas del mercado sobre su futuro de crecimiento y la posible “burbuja de IA”. Bloomberg informó que en los últimos meses, las acciones de la compañía se estancaron, acumulando una caída del 3,4% antes de la conferencia GTC.

Según Reuters, apostar por chips de razonamiento de IA marca la intención de Huang de consolidar la posición de Nvidia en el campo del “cálculo de razonamiento” (el proceso en que la IA da respuestas). Con la industria global de IA desplazándose del “competencia en modelos (entrenamiento)” hacia la “implementación comercial (razonamiento)”, gigantes tecnológicos como OpenAI y Anthropic están cambiando su estrategia, dejando de comprar chips para entrenar modelos de IA y enfocándose en atender a los millones de usuarios finales que utilizan sistemas de IA. Dado que, tras finalizar el “entrenamiento” y pasar a la fase de aplicación, los chips de razonamiento son mucho más eficientes en energía y rendimiento al ejecutar tareas y generar respuestas, superando ampliamente a los procesadores de alto consumo en la fase de construcción de modelos, el mercado global muestra interés en hardware de razonamiento más barato y compacto. Huang afirmó que “el punto de inflexión en el razonamiento ya ha llegado” y añadió que “la demanda sigue creciendo”.

El capital invierte en la ola del “razonamiento”

Aunque Nvidia aún domina aproximadamente el 90% del mercado, la competencia en el ámbito del hardware de IA se está cerrando. Según “Business Insider”, los precios de los GPU de Nvidia son elevados, y a medida que los clientes buscan reducir su dependencia, surgen varios competidores. Empresas como Meta están acelerando el desarrollo de sus propios chips. Bloomberg también mencionó que, aunque en el campo del entrenamiento los CPU aún están en desventaja, su menor costo los hace muy atractivos en las etapas de despliegue.

El foco de la IA también está cambiando. “Business Insider” informó que, aunque los GPU dominan en la fase de entrenamiento, el “razonamiento” es un proceso continuo y muy sensible a los costos. Grandes empresas de la nube y startups están desarrollando chips de IA competitivos, especialmente en el área de razonamiento. Se reporta que Amazon ya lanzó las series Trainium e Inferentia como alternativas de bajo costo a Nvidia. Microsoft también presentó recientemente su chip de razonamiento IA Maia 200. Además, muchas startups están creando chips especializados más económicos y eficientes que los GPU, intentando redefinir los estándares del sector. Con miles de millones de dólares de inversión en esta ola tecnológica, varias empresas unicornio altamente competitivas han surgido en el sector del razonamiento.

Por otra parte, China sigue siendo el mayor desafío geopolítico para Nvidia. “Business Insider” señaló que las restricciones de seguridad y comercio impuestas por EE. UU. limitan el potencial de crecimiento de Nvidia. Huang ha advertido varias veces que bloquear las ventas a China solo acelerará el desarrollo de la industria local en ese país. Huawei, que ocupa un papel central en la industria doméstica, es vista como la competencia más directa de Nvidia. No solo fabrica chips, servidores y equipos de red, sino que también opera su propia plataforma en la nube. Al mismo tiempo, startups chinas de chips como Cambricon están emergiendo como alternativas fuertes a Nvidia.

El director de la Alianza de Consumo de Información de Zhongguancun, Xiang Ligang, dijo en una entrevista con el “Global Times” que Nvidia sigue teniendo ventaja en hardware de IA, y que en el corto plazo será difícil de desafiar. Sin embargo, en la carrera del “razonamiento” están surgiendo más productos, y la competencia futura probablemente se centrará en el precio. Muchas empresas buscan reducir costos para desafiar la posición dominante de Nvidia, en la cual la compañía no tiene ventajas claras.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado