Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Rápido aumento en la demanda de poder computacional de razonamiento, empresas de la cadena industrial aceleran su despliegue
Periodista de Securities Daily Network Wang Jingru
A medida que la tecnología de inteligencia artificial generativa avanza desde el “entrenamiento de modelos” hacia una implementación comercial a gran escala, el consumo de potencia centrado en el entrenamiento está gradualmente desplazándose hacia una demanda continua de potencia dominada por la inferencia. El 17 de marzo, el CEO de Nvidia, Jensen Huang, afirmó en la conferencia GTC que el punto de inflexión del mercado de inferencia de IA ya ha llegado, y que la IA ha pasado completamente de la fase de entrenamiento a la fase de inferencia y ejecución, con una explosión exponencial en la demanda de potencia para inferencia.
“Con la expansión de la escala de aplicaciones de inteligencia artificial generativa, la tasa de crecimiento de la requerimiento de potencia para inferencia puede superar con creces la del entrenamiento. Por un lado, la demanda de aplicaciones está en auge, acelerando la implementación de IA generativa y agentes inteligentes, y la interacción frecuente de los usuarios genera solicitudes de inferencia en niveles exponenciales; por otro lado, avances tecnológicos en chips especializados para inferencia, refrigeración líquida y conexiones ópticas continúan rompiendo barreras, mejorando significativamente la eficiencia de la potencia y la capacidad de concurrencia, sentando las bases para despliegues a gran escala”, afirmó Zhang Pengyuan, investigador de Shenzhen Qianhai PaiPaiNet Fund Sales Co., Ltd., a periodistas de Securities Daily.
Según predicciones de instituciones del sector, la importancia de la potencia para inferencia continúa creciendo. La firma internacional IDC pronostica que para 2027, la proporción de potencia para inferencia en China superará el 70% del total de potencia. Huang Chao, fundador y CEO de China IDC Circle, señaló que en 2026, los agentes inteligentes en la industria entrarán en una etapa de florecimiento, y que la aplicación de potencia se está desplazando de “predominancia en entrenamiento” a “impulsada por inferencia”, con una explosión en la demanda de potencia para inferencia que está por llegar en su totalidad.
Frente al rápido crecimiento en la demanda de potencia para inferencia, las empresas de la cadena industrial nacional están acelerando la investigación tecnológica y la planificación de productos. En el nivel de chips, varias compañías están lanzando chips optimizados para escenarios de inferencia. En comparación con los chips tradicionales de entrenamiento, los chips de inferencia enfatizan el control del consumo energético, la eficiencia en costos y la flexibilidad en el despliegue, por lo que tienen un amplio espacio de aplicación tanto en la nube como en el edge.
Tomemos como ejemplo a Shenzhen Cloud Tian Lifi Technology Co., Ltd. (en adelante, “Yuntian Lifi”), que centra su estrategia en NPU y ha definido la ruta tecnológica GPNPU para chips de gran potencia en escenarios de inferencia en la nube. Han realizado optimizaciones profundas en matrices, unidades vectoriales, niveles de almacenamiento y utilización del ancho de banda efectivo, con el objetivo de reducir exponencialmente el costo por token y acelerar la implementación a escala y de manera inclusiva de grandes modelos.
Para 2025, Yuntian Lifi alcanzará ingresos operativos de 1.308 mil millones de yuanes, con un crecimiento interanual del 42,57%. Un responsable de la empresa afirmó a Securities Daily: “Para las empresas, a medida que la competencia en la industria pasa de centrarse en la escala de entrenamiento a centrarse en la eficiencia de inferencia, costos de entrega y rentabilidad del sistema, quien logre integrar hardware, almacenamiento y software de manera más temprana tendrá más oportunidades de tomar la iniciativa en la era de la inferencia.”
En cuanto a servidores y sistemas, los principales fabricantes continúan lanzando plataformas de potencia optimizadas para escenarios de inferencia. Por ejemplo, Inspur Electronics Information Industry Co., Ltd. lanzó el servidor de inferencia YuanNao R1, que soporta hasta 16 tarjetas PCIe de doble ancho estándar en una sola máquina, permitiendo desplegar modelos como DeepSeek-671B; también lanzaron servidores de inferencia con CPU YuanNao, que permiten desplegar y ejecutar eficientemente modelos de nueva generación como DeepSeek-R132B y QwQ-32B.
Al mismo tiempo, la construcción de infraestructura de potencia también se acelera. En el pasado, muchos centros de inteligencia computacional en China adoptaban un modelo integrado de entrenamiento e inferencia. El 12 de marzo, Yuntian Lifi ganó la licitación para el proyecto de infraestructura de soporte para la penetración de IA en Zhanjiang, Guangdong, que se enfoca en un clúster de inferencia de IA dedicado a tareas específicas, dirigido a diversas aplicaciones industriales y sirviendo como ejemplo de implementación de IA en industrias tradicionales nacionales.
El director general de Beijing Zhi Yu Zhi Shan Investment Management Co., Ltd., He Li, considera que en esta transformación, los chips de inferencia de alto rendimiento, HBM y el software de pila completa serán los primeros en beneficiarse de los dividendos de potencia. Los escenarios de inferencia exigen baja latencia, alto rendimiento y eficiencia energética, por lo que arquitecturas especializadas como LPU y ASIC acelerarán la sustitución de unidades de cálculo general; tecnologías de almacenamiento como HBM4 serán clave para superar los cuellos de botella de ancho de banda. Además, la potencia se está desplazando del centro de datos hacia el edge, aumentando la demanda de racks de inferencia de alta densidad y tecnologías avanzadas de refrigeración, complementadas con optimizaciones de compilación como la cuantificación de modelos y la compresión de parámetros, impulsando la transición de una pila de hardware a una colaboración entre hardware y software.