Rápido aumento en la demanda de poder computacional de razonamiento, empresas de la cadena industrial aceleran su despliegue

Periodista de Securities Daily Network Wang Jingru

A medida que la tecnología de inteligencia artificial generativa avanza desde el “entrenamiento de modelos” hacia una implementación comercial a gran escala, el consumo de potencia centrado en el entrenamiento está gradualmente desplazándose hacia una demanda continua de potencia dominada por la inferencia. El 17 de marzo, el CEO de Nvidia, Jensen Huang, afirmó en la conferencia GTC que el punto de inflexión del mercado de inferencia de IA ya ha llegado, y que la IA ha pasado completamente de la fase de entrenamiento a la fase de inferencia y ejecución, con una explosión exponencial en la demanda de potencia para inferencia.

“Con la expansión de la escala de aplicaciones de inteligencia artificial generativa, la tasa de crecimiento de la requerimiento de potencia para inferencia puede superar con creces la del entrenamiento. Por un lado, la demanda de aplicaciones está en auge, acelerando la implementación de IA generativa y agentes inteligentes, y la interacción frecuente de los usuarios genera solicitudes de inferencia en niveles exponenciales; por otro lado, avances tecnológicos en chips especializados para inferencia, refrigeración líquida y conexiones ópticas continúan rompiendo barreras, mejorando significativamente la eficiencia de la potencia y la capacidad de concurrencia, sentando las bases para despliegues a gran escala”, afirmó Zhang Pengyuan, investigador de Shenzhen Qianhai PaiPaiNet Fund Sales Co., Ltd., a periodistas de Securities Daily.

Según predicciones de instituciones del sector, la importancia de la potencia para inferencia continúa creciendo. La firma internacional IDC pronostica que para 2027, la proporción de potencia para inferencia en China superará el 70% del total de potencia. Huang Chao, fundador y CEO de China IDC Circle, señaló que en 2026, los agentes inteligentes en la industria entrarán en una etapa de florecimiento, y que la aplicación de potencia se está desplazando de “predominancia en entrenamiento” a “impulsada por inferencia”, con una explosión en la demanda de potencia para inferencia que está por llegar en su totalidad.

Frente al rápido crecimiento en la demanda de potencia para inferencia, las empresas de la cadena industrial nacional están acelerando la investigación tecnológica y la planificación de productos. En el nivel de chips, varias compañías están lanzando chips optimizados para escenarios de inferencia. En comparación con los chips tradicionales de entrenamiento, los chips de inferencia enfatizan el control del consumo energético, la eficiencia en costos y la flexibilidad en el despliegue, por lo que tienen un amplio espacio de aplicación tanto en la nube como en el edge.

Tomemos como ejemplo a Shenzhen Cloud Tian Lifi Technology Co., Ltd. (en adelante, “Yuntian Lifi”), que centra su estrategia en NPU y ha definido la ruta tecnológica GPNPU para chips de gran potencia en escenarios de inferencia en la nube. Han realizado optimizaciones profundas en matrices, unidades vectoriales, niveles de almacenamiento y utilización del ancho de banda efectivo, con el objetivo de reducir exponencialmente el costo por token y acelerar la implementación a escala y de manera inclusiva de grandes modelos.

Para 2025, Yuntian Lifi alcanzará ingresos operativos de 1.308 mil millones de yuanes, con un crecimiento interanual del 42,57%. Un responsable de la empresa afirmó a Securities Daily: “Para las empresas, a medida que la competencia en la industria pasa de centrarse en la escala de entrenamiento a centrarse en la eficiencia de inferencia, costos de entrega y rentabilidad del sistema, quien logre integrar hardware, almacenamiento y software de manera más temprana tendrá más oportunidades de tomar la iniciativa en la era de la inferencia.”

En cuanto a servidores y sistemas, los principales fabricantes continúan lanzando plataformas de potencia optimizadas para escenarios de inferencia. Por ejemplo, Inspur Electronics Information Industry Co., Ltd. lanzó el servidor de inferencia YuanNao R1, que soporta hasta 16 tarjetas PCIe de doble ancho estándar en una sola máquina, permitiendo desplegar modelos como DeepSeek-671B; también lanzaron servidores de inferencia con CPU YuanNao, que permiten desplegar y ejecutar eficientemente modelos de nueva generación como DeepSeek-R132B y QwQ-32B.

Al mismo tiempo, la construcción de infraestructura de potencia también se acelera. En el pasado, muchos centros de inteligencia computacional en China adoptaban un modelo integrado de entrenamiento e inferencia. El 12 de marzo, Yuntian Lifi ganó la licitación para el proyecto de infraestructura de soporte para la penetración de IA en Zhanjiang, Guangdong, que se enfoca en un clúster de inferencia de IA dedicado a tareas específicas, dirigido a diversas aplicaciones industriales y sirviendo como ejemplo de implementación de IA en industrias tradicionales nacionales.

El director general de Beijing Zhi Yu Zhi Shan Investment Management Co., Ltd., He Li, considera que en esta transformación, los chips de inferencia de alto rendimiento, HBM y el software de pila completa serán los primeros en beneficiarse de los dividendos de potencia. Los escenarios de inferencia exigen baja latencia, alto rendimiento y eficiencia energética, por lo que arquitecturas especializadas como LPU y ASIC acelerarán la sustitución de unidades de cálculo general; tecnologías de almacenamiento como HBM4 serán clave para superar los cuellos de botella de ancho de banda. Además, la potencia se está desplazando del centro de datos hacia el edge, aumentando la demanda de racks de inferencia de alta densidad y tecnologías avanzadas de refrigeración, complementadas con optimizaciones de compilación como la cuantificación de modelos y la compresión de parámetros, impulsando la transición de una pila de hardware a una colaboración entre hardware y software.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado