Construcción del primer clúster de mil tarjetas de inferencia de IA nacional, Cloudwalk proporciona un modelo para "modelo nacional y chip nacional"

robot
Generación de resúmenes en curso

CloudWalk (688343.SH) ha obtenido otra adjudicación importante de 420 millones de yuanes.

El 12 de marzo, según información de licitación pública, CloudWalk fue la ganadora del proyecto de infraestructura para la producción de nueva calidad en soporte de penetración de IA en Zhanjiang (en adelante, “el proyecto de Zhanjiang”), con un monto de adjudicación de 420 millones de yuanes. El proyecto se basará en la tarjeta aceleradora de inferencia de IA de fabricación nacional desarrollada por CloudWalk, para construir un clúster de mil tarjetas de inferencia de IA nacionales. Se planea que el clúster soporte grandes modelos nacionales como DeepSeek, proporcionando capacidades de IA más accesibles y de menor costo para escenarios gubernamentales, industriales y aplicaciones relacionadas.

El informe de rendimiento de CloudWalk para el año 2025 muestra que, en el último año, la compañía alcanzó unos ingresos de 1.308 mil millones de yuanes, lo que representa un aumento del 42,57% respecto al año anterior; y una pérdida neta atribuible a la matriz de 402 millones de yuanes, que se redujo en un 30,50% en comparación con el año anterior. La adjudicación de este proyecto de infraestructura de computación de 420 millones de yuanes no solo respalda firmemente su capacidad de comercialización de chips propios, sino que también se traducirá directamente en un impulso para el crecimiento sostenido de los resultados futuros de la empresa.

Pero para CloudWalk, más allá de la contribución financiera, el significado de referencia del proyecto de Zhanjiang es aún más importante. Cuando la inteligencia artificial pasa del laboratorio a las profundidades de la industria, el valor de la capacidad de computación ya no se mide solo por los rankings, sino por su capacidad de habilitar a miles de sectores productivos en toda la economía. Desde esta perspectiva, el proyecto de Zhanjiang no solo es un catalizador para los ingresos a corto plazo, sino también una pieza clave para que CloudWalk demuestre su capacidad de investigación y desarrollo, y ocupe una posición de liderazgo en la industria.

Como el primer clúster de mil tarjetas de inferencia de IA completamente nacional, el proyecto de Zhanjiang no solo marca un referente en la comercialización a gran escala de la capacidad de inferencia de CloudWalk, sino que también proporciona el mejor campo de prueba para la profunda integración de “modelos nacionales y chips nacionales”, ayudando a avanzar continuamente hacia la meta de un clúster de diez mil tarjetas.

Cuando el foco de la industria pase de los picos de entrenamiento a los costos de inferencia, quien pueda ofrecer capacidades de inferencia en gran escala de manera estable y a menor costo, tendrá la ventaja en la próxima ronda de competencia en IA. La estrategia de CloudWalk en Zhanjiang es precisamente una jugada clave para posicionarse en la era de la inferencia.

La demanda de capacidad de IA se orienta hacia la “prioridad en inferencia”

A diferencia del enfoque generalizado en los centros de inteligencia computacional nacionales en el pasado, que seguían un modelo de construcción “integrada de entrenamiento y inferencia”, el proyecto de Zhanjiang de CloudWalk ha optado por una ruta técnica más enfocada: un clúster de inferencia de IA dedicado a tareas de inferencia, dirigido principalmente a diversos escenarios industriales, para ofrecer soporte directo a la digitalización de industrias tradicionales.

Este cambio refleja una profunda transformación en la lógica de la industria de IA.

El sistema de capacidad de IA puede dividirse en capacidad de entrenamiento y capacidad de inferencia. La capacidad de entrenamiento determina cómo un modelo construye habilidades desde cero, poniendo énfasis en la potencia de cálculo absoluta; en cambio, la capacidad de inferencia se centra en usar modelos entrenados para realizar predicciones, siendo más práctica, con requisitos de cálculo relativamente bajos, y poniendo mayor atención a la baja latencia y bajo consumo energético.

En los últimos años, el foco de la industria se ha centrado en la carrera armamentística de parámetros, con modelos de cientos de millones, miles de millones e incluso billones de parámetros que se lanzan uno tras otro, y las grandes empresas compiten por alcanzar la máxima capacidad de los modelos. Sin embargo, a medida que estas capacidades maduran, la industria empieza a plantearse una pregunta más realista: si los modelos son tan poderosos, ¿en qué escenarios pueden realmente crear valor?

Por ello, la inferencia de capacidad de cálculo ha comenzado a recibir mayor atención. Ya sea el popular SeeDance durante el Año Nuevo chino, el reciente debate sobre el “langostino”, o las aplicaciones de agentes de IA que lanzan diferentes sectores, todos dependen del soporte de la capacidad de inferencia. Según predicciones de Gartner, para 2026, aproximadamente el 55% del gasto en infraestructura en la nube dedicada a IA se destinará a cargas de trabajo de inferencia.

Aquí es donde CloudWalk tiene ventaja. Esta fabricante de chips nacionales ha estado enfocada en chips de inferencia durante años. Su arquitectura pionera de “bloques de capacidad” ha logrado una expansión flexible de la potencia en procesos nacionales avanzados, y ha lanzado series de chips como “DeepWorld”, “DeepForce” y “DeepSky” para áreas como el borde, la inteligencia embebida y la nube.

Gracias a esto, CloudWalk puede satisfacer mejor las necesidades del proyecto de Zhanjiang.

Las aplicaciones de inferencia de grandes modelos requieren satisfacer simultáneamente altas concurrencias, alto rendimiento y baja latencia. Además, a medida que aumenta la longitud del contexto en los grandes modelos, se necesita almacenar una gran cantidad de estados intermedios en forma de caché de claves y valores (KV Cache). Por ello, la industria en general considera que en el futuro, los cuellos de botella en el rendimiento de los sistemas de inferencia serán cada vez más relacionados con la eficiencia en el acceso a datos, y no solo con la capacidad de cálculo.

En este contexto, el diseño coordinado de capacidad de cálculo, almacenamiento y red se está convirtiendo en una competencia clave en la infraestructura de IA.

El clúster de mil tarjetas de inferencia que se implementa en Zhanjiang está construido en torno a esta idea. Utiliza los chips de inferencia de IA desarrollados de forma independiente por CloudWalk, y en su arquitectura de sistema se ha establecido una estrategia técnica de “priorizar la optimización del prellenado (Prefill) y equilibrar la decodificación (Decode)”. Al configurar específicamente los recursos de cálculo y el ancho de banda de almacenamiento en el diseño del chip, el sistema puede mantener una alta eficiencia de rendimiento incluso en escenarios de inferencia con contextos largos.

En cuanto a la interconexión de red, CloudWalk emplea una arquitectura de alta velocidad unificada, construida sobre una red óptica de 400G, para lograr una comunicación de alto ancho de banda y baja latencia entre nodos; en términos de capacidad de despliegue, esta arquitectura puede soportar desde decenas de tarjetas en un solo nodo hasta escalas de miles de tarjetas en clústeres grandes, permitiendo adaptarse a diferentes necesidades de aplicaciones de IA.

Mediante optimizaciones en la arquitectura de chips, la interconexión de red y la gestión del sistema, este clúster de inferencia ofrece ventajas evidentes en eficiencia global y control de costos, proporcionando una solución de computación más económica para aplicaciones de IA a gran escala.

Reducir el costo de cien mil millones de tokens a un centavo

Para CloudWalk, la implementación en Zhanjiang es solo el comienzo.

A medida que los grandes modelos entran en la fase de aplicación, la atención de la industria se está desplazando del “pico de capacidad” hacia la “eficiencia en costo por unidad”. En otras palabras, en la próxima competencia en IA, un factor clave será quién pueda ofrecer capacidades de inferencia a gran escala de manera estable y a menor costo.

Como pionero en chips de inferencia, CloudWalk tiene una percepción clara de esto. En febrero de este año, la compañía anunció su plan de desarrollo de chips de gran capacidad para reducir en doble dígito anual el costo de inferencia de un millón de tokens, estableciendo una hoja de ruta para los próximos tres años.

El primer chip de ultra-nodo, el modelo P, se lanzará este año, optimizado para inferencia en escenarios con contextos de hasta un millón de tokens, con una capacidad de cálculo que sigue de cerca a la H100; en 2027, CloudWalk desarrollará el primer chip de ultra-nodo D, para lograr inferencias con latencia ultrabaja en decodificación; y en 2028, lanzará la segunda generación de chips de ultra-nodo D, con el objetivo de mejorar el rendimiento general de Prefill y Decode mediante optimizaciones a nivel de sistema, acercándose a una latencia de inferencia de milisegundos.

Aunque el plan ya está trazado, incluso la estrategia tecnológica más ambiciosa necesita ser validada en escenarios reales para comprobar su valor comercial. ¿Realmente el diseño de los chips se ajusta a las necesidades de la industria? ¿La asignación de recursos entre Prefill y Decode puede optimizarse en cargas reales? ¿Cómo aliviar eficazmente la presión de acceso a datos causada por KV Cache en escalas de miles de tarjetas? Estas preguntas no pueden resolverse solo en laboratorio; deben enfrentarse en entornos industriales reales.

Por ello, para CloudWalk, el proyecto de Zhanjiang no es solo una entrega técnica, sino una verdadera prueba de combate para su fuerza tecnológica principal.

Se sabe que el proyecto de Zhanjiang se dividirá en tres fases, todas utilizando las tarjetas de inferencia de IA nacionales desarrolladas por CloudWalk. La primera fase desplegará las tarjetas de inferencia X6000; en las fases dos y tres, se implementarán los chips de última generación de la compañía. La primera tarjeta de Prefill, DeepVerse100, se espera que complete su fabricación en línea este año y se despliegue inicialmente en el clúster de Zhanjiang.

Al mismo tiempo, el clúster de mil tarjetas de inferencia en Zhanjiang también muestra una gran capacidad de despliegue flexible. En una arquitectura típica, un clúster de mil tarjetas suele estar compuesto por estructuras escalables en múltiples niveles: desde nodos con 8, 32 tarjetas, hasta supernodos con 64 o incluso cientos de tarjetas, y grandes clústeres distribuidos entre nodos. La operación práctica de estos sistemas a esta escala permite validar tecnologías clave como la interconexión entre tarjetas, la comunicación entre nodos y el balanceo de carga, acumulando experiencia para futuras construcciones de sistemas de computación de IA aún mayores.

En una planificación a más largo plazo, CloudWalk ha propuesto el “Plan 1001”, cuyo objetivo a largo plazo es lograr “cien mil millones de tokens por un centavo”, mediante la optimización conjunta de chips y sistemas para reducir continuamente los costos de inferencia de grandes modelos.

Si este objetivo se hace realidad, la IA se convertirá en una infraestructura básica como el agua y la electricidad, fluyendo a través de todos los sectores económicos. Para CloudWalk, que ha sido pionera en la carrera de inferencia, esto marcará una era dorada para los “vendedores de agua”.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado