Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Foro de Zhongguancun | ¿De qué hablaron los grandes referentes de la IA Yang Zhilin, Zhang Peng, Xia Lixue y Luo Fuli?
El reportero de @中经记者 李静 informa desde Pekín
El 27 de marzo, durante la Conferencia Anual del Foro de Zhongguancun 2026, los principales talentos de China en modelos de IA y en infraestructura de IA se reunieron en un panel redondo.
Este panel redondo estuvo moderado por Yang Zhilin, fundador de Moonshot (El lado oscuro de la luna), y contó con la participación de Zhang Peng, CEO de Zhipu Huazhang; Xia Lixue, cofundadora y CEO de Wuwen Qixiong; Luo Fuli, responsable de modelos de IA en Xiaomi MiMo; y Huang Chao, profesor adjunto de la Universidad de Hong Kong, tutor de doctorado y supervisor del equipo Nanobot.
El periodista de 《China Business Journal》 notó que varios talentos técnicos de la industria de la IA, durante la conversación, no hicieron saludos cortesía. Los temas abarcaron desde el gran impacto que provocó la “langosta (OpenClaw)” hasta las corrientes subterráneas de la ecología de código abierto; desde la ansiedad por el aumento desbocado de los costos de inferencia hasta la reconfiguración del cómputo en la era de los agentes.
En esta colisión de ideas, no solo revelaron la ruta evolutiva de los modelos de lenguaje en los próximos 12 meses, pasando de “chatear” a “hacer el trabajo”, sino que también lanzaron esa pregunta que entusiasma y angustia a todos: cuando el consumo de Token experimenta una explosión de cien veces, ¿estamos listos?
Hablando de “langosta”: los agentes reconfiguran la interacción humano-máquina
Al comenzar el panel, el tema se centró en la “langosta”, que recientemente ha estado arrasando en la tendencia. No es solo una actualización de un producto; también se considera el punto de inflexión para las aplicaciones de la industria de la IA.
Para esta ola de agentes, Zhang Peng considera que su núcleo está en evolucionar la IA de “una conversación simple” a “un trabajo de verdad”.
Señaló que la “langosta” exige niveles extremadamente altos para la capacidad del modelo: el modelo necesita tener la habilidad de pensar y planificar durante largos periodos, además de manejar la capacidad de tratar grandes volúmenes de contexto. Esto también ha llevado directamente a la estrategia de aumento de precios de Zhipu en sus modelos de inferencia GLM.
“Porque al hacer trabajos complejos, los costos de inferencia suben de forma exponencial; y volver a la lógica normal del valor comercial es una vía obligada para el desarrollo saludable de la industria”, respondió Zhang Peng.
Xia Lixue reveló que desde que la “langosta” despegó a principios de este año, el volumen de Token que procesa su empresa casi se duplica cada dos semanas; el crecimiento acumulado ha llegado a 10 veces. La velocidad de esta explosión no había ocurrido desde la época de popularización del tráfico 3G en teléfonos.
Xia Lixue cree que, en el pasado, la infraestructura en la nube estaba diseñada para “ingenieros humanos”, mientras que en la era de los agentes se necesita infraestructura diseñada para “la IA”. Incluso usó una comparación entre “a nivel de minutos” y “a nivel de milisegundos” para describir esa desalineación: las personas inician tareas en el rango de minutos, mientras que el pensamiento del agente y el inicio de tareas ocurren en el rango de milisegundos.
“Por lo tanto, la infraestructura futura debe ser tan eficiente como una fábrica de Token, e incluso evolucionar hacia un agente inteligente capaz de autoevolucionar y autoiterar”, predijo Xia Lixue.
Luo Fuli considera que el mayor valor de OpenClaw está en “ser código abierto”, lo que beneficia que la comunidad participe profundamente. Eleva al máximo el techo de modelos cerrados de segundo nivel en el país; en la gran mayoría de los escenarios, la tasa de finalización de tareas ya está muy cerca de la del modelo más reciente, y al mismo tiempo se asegura el piso a través del sistema de Skill. Además, el código abierto también ha encendido el entusiasmo de la comunidad por explorar capas de agentes más allá de los modelos de gran escala, haciendo que más personas que no son investigadores participen en la transformación hacia la AGI.
Huang Chao añadió que OpenClaw, mediante una interacción tipo software de mensajería instantánea, otorga a los agentes una sensación más fuerte de “ser personas reales”, reduce el umbral para crear y usar agentes y, en el futuro, tiene gran potencial para dinamizar toda la ecología de herramientas.
Retos de cómputo y costos
A medida que la IA avanza del periodo de entrenamiento hacia el periodo de inferencia, las iteraciones de tecnología de modelos, el retorno del valor comercial y el respaldo de infraestructura de cómputo se han convertido en temas clave para el desarrollo de la industria.
Yang Zhilin comparó el código abierto con un “andamiaje”, y sostuvo que reduce el umbral para que la gente común use capacidades de modelos de nivel superior, haciendo que la IA deje de ser una exclusividad de programadores. Pero también dijo con franqueza que, en la actualidad, la comunidad de código abierto se enfrenta a un enorme vacío en cómputo de inferencia.
Durante el panel se mencionó repetidamente la “ansiedad por el cómputo”. Zhang Peng reconoció que, debido al aumento de la complejidad de las tareas, la cantidad de llamadas para completar una tarea puede ser de 10 a incluso 100 veces la de preguntas y respuestas simples; esto hace que el cómputo se convierta en el cuello de botella que limita el desarrollo de la industria.
Xia Lixue afirmó que el problema actual es que la IA genera una demanda explosiva, lo que exige optimizar la eficiencia del sistema. “Lo resolvemos conectando software y hardware: integramos casi todo tipo de chips de cómputo; conectamos decenas de tipos de chips y clústeres de cómputo del país, mejoramos la eficiencia de conversión y convertimos a China en una fábrica mundial de Token”.
También describió una visión macro—“AI Made in China”—es decir, aprovechar la energía y las ventajas de fabricación de China, y mediante infraestructura eficiente, transformar la energía en una salida global de Token de alta calidad.
Pero la infraestructura existente de computación en la nube limita el desarrollo de los agentes, y se necesita construir una infraestructura de IA más inteligente que se adapte a las demandas de alta frecuencia de los agentes. “Desde nuestro punto de vista, la propia infraestructura también debería ser un agente: capaz de autoevolucionar y autoiterar, formando organización autónoma”, añadió Xia Lixue.
Luo Fuli señaló que, hace dos años, cuando los equipos chinos tenían limitaciones de cómputo, especialmente limitaciones del ancho de banda de interconexión, lograron avances en la estructura del modelo (por ejemplo, DeepSeek).
“Aunque ahora los chips nacionales ya no están limitados, la exploración de alta eficiencia y bajo costo de inferencia sigue siendo importante”, dijo Luo Fuli. El supuesto de OpenClaw es que cuanto más se usa, más inteligente se vuelve, y eso depende del contexto de inferencia. El problema actual es: ¿cómo lograr un costo lo suficientemente bajo y una velocidad lo suficientemente alta en contextos largos de 1M o 10M? “Solo logrando una inferencia eficiente con Long Context (contexto largo) se puede respaldar la capacidad de autoiteración de los agentes en entornos complejos; este será el campo de batalla clave de la competencia futura”.
Además, Luo Fuli pronosticó que, con la explosión de las demandas de inferencia provocadas por los agentes, la demanda de Token en este año podría crecer 100 veces; las dimensiones de la competencia se trasladarán hacia el cómputo, los chips de inferencia e incluso el nivel de energía.
Huang Chao cree que, en la actualidad, los agentes aún tienen problemas en Memory: compresión de información inexacta y dificultad para recordar. En tareas de largo plazo y escenarios complejos, la Memory aumentará drásticamente, generando una gran presión. “Siento que la Memory del futuro debería avanzar hacia un diseño por capas, para que la Memory sea más general”.
Mirando hacia los próximos 12 meses
Si tuvieras que describir con una palabra la tendencia del desarrollo de los grandes modelos en los próximos doce meses, ¿cuál elegirías?
La palabra clave de Huang Chao es “ecosistema”. Previó que, en el futuro, el software podría diseñarse nativamente para agentes, y que toda la pila tecnológica necesita evolucionar hacia un modelo “Agent Native”. Para ello, se requiere que la comunidad de código abierto, los desarrolladores de modelos y las empresas de aplicaciones construyan en conjunto, para que los agentes pasen de ser un “pasatiempo con cosas nuevas” y se conviertan verdaderamente en confiables “colegas digitales” (Co-worker).
La palabra clave de Luo Fuli es “autoevolución”. Considera que un fuerte marco de agentes activa los máximos del gran modelo que antes no se habían tocado. En ciclos verificables, el modelo ya puede optimizar objetivos de forma autónoma durante días, como explorar estructuras de modelos mejores en la investigación científica. Ella prevé que esta capacidad de “autoevolución” aumentará en uno a dos años la eficiencia de trabajos creativos como la investigación científica en varios órdenes de magnitud.
La palabra clave de Xia Lixue es “Token sostenible”. A su juicio, hoy en día todo el desarrollo de la IA aún se encuentra en un proceso de avance sostenido a largo plazo, pero un problema muy real es que los recursos, en última instancia, son limitados.
“Si podemos o no proporcionar Token de manera continua, estable y a gran escala, para que los modelos líderes realmente sirvan durante mucho tiempo a más escenarios downstream, es un problema muy clave”, en opinión de Xia Lixue. Si se pudiera convertir de forma sostenible la ventaja de China en energía y otros aspectos, mediante fábricas de Token, en Token de alta calidad y luego exportarlos al mundo, China tendría la oportunidad de convertirse en la “fábrica de Token” del mundo.
La palabra clave que eligió Zhang Peng es “cómputo”. El marco de agentes, de hecho, libera la creatividad de mucha gente y la eficiencia también podría aumentar diez veces, pero el requisito previo es que todos puedan permitirse usarlo y realmente puedan usarlo.
“Hace dos años, el académico Zhang Yaqin dijo algo en el Foro de Zhongguancun: en esencia ‘sin tarjeta no hay emociones; hablar de tarjetas hiere los sentimientos’. Siento que hoy en realidad volvemos un poco a ese estado”, dijo Zhang Peng.
(Editado por: Zhang Jingchao | Revisado por: Li Zhenghao | Corrección de estilo: Yan Jingning)
Noticias masivas, interpretación precisa, todo en la app de Sina Finance