Una conversación sobre "langosta" revela las variables clave en el desarrollo de la IA

robot
Generación de resúmenes en curso

Periodista de Securities Times Han Zhongnan

“En realidad, cuando empecé a usar OpenClaw (popularmente conocido como ‘cangrejo de río’), no me adaptaba demasiado.”

La respuesta de Xia Lixue, cofundador y CEO de Wuwen Qiong, hizo que, en la edición de 2026 de la Conferencia Anual de la Industria de Zhongguancun, en el foro de vanguardia sobre IA de código abierto, el público soltase sonrisas de complicidad. El 27 de marzo, durante el panel de mesa redonda del foro, Yang Zhilin, fundador de Mian zhi llan, como moderador, lanzó a cuatro colegas del ámbito de la IA la pregunta central: ¿cuál es la impresión más profunda de usar OpenClaw? ¿Y cómo ve su perspectiva de evolución junto con otros agentes inteligentes relacionados?

Xia Lixue admitió que, acostumbrado a la interacción conversacional de los grandes modelos, al principio le resultó poco adaptado el “lento” de esta “langosta”. Pero luego cambió el tono: “Después me di cuenta de que no es un agente inteligente que solo se dedica a chatear; es más bien como un ‘humano’ que puede ayudarme a completar grandes tareas”.

Esa frase expone el consenso central de esta mesa redonda: la IA está pasando de “solo conversar” a “hacer trabajo de verdad”.

Para el CEO de Zhipu Zhang Peng, OpenClaw es como un “andamio” para la IA: permite construir, sobre las capacidades del modelo, un marco lo suficientemente sólido, conveniente y flexible, de modo que las personas comunes puedan usar fácilmente modelos de primera sin necesidad de dominar el código.

El profesor asistente de la Universidad de Hong Kong y responsable del equipo Nanobot, Huang Chao, resumió con una expresión viral de Internet el valor único de OpenClaw: “sensación de persona”. Dijo que en el pasado muchos agentes inteligentes hacían que la gente sintiera más “sensación de herramienta”, mientras que OpenClaw, mediante un modo de interacción incrustado en software de mensajería instantánea (IM), hace que la IA se parezca más a la imagen de un asistente inteligente en la mente de las personas.

A medida que la discusión avanzaba, el panorama futuro de los agentes inteligentes de IA se fue aclarando gradualmente. Yang Zhilin señaló que los modelos de código abierto y la potencia de cómputo de inferencia están formando un nuevo ecosistema. Con la explosión del volumen de Token (tokens), toda la industria podría pasar gradualmente de la era de entrenamiento a la era de inferencia.

Este juicio recibió una confirmación contundente por parte de Xia Lixue. “A partir de finales de enero, el volumen de nuestros Tokens se duplica cada dos semanas; hasta ahora ha crecido diez veces”, dijo. “La vez anterior en que vi un ritmo de crecimiento así fue cuando, en la era 3G, se popularizó el tráfico de datos en los teléfonos”. En su opinión, esto es una señal de cambio de época: solo optimizando e integrando los recursos existentes, la IA puede servir realmente a cada persona.

Sin embargo, el crecimiento explosivo de la demanda de Tokens también trae desafíos reales. Zhang Peng lo dijo con franqueza: hacer que modelos más inteligentes ejecuten tareas más complejas consume una cantidad enorme de recursos; la cantidad de Tokens necesaria podría ser de diez e incluso cien veces la requerida para responder preguntas sencillas, y esa es también la razón por la que Zhipu recientemente subió el precio del modelo GLM-5-Turbo.

Luofu Li, responsable de modelos Mimo de Xiaomi, dio una perspectiva desde el ángulo de la evolución tecnológica. Ella cree que “la ‘autoevolución’” será la tendencia clave en el campo de la AGI (inteligencia artificial general) en el próximo año. “Con el impulso de un poderoso marco de agentes inteligentes de autoevolución, los grandes modelos acelerarán de forma exponencial los avances en la investigación científica”, dijo, y reveló que, con el apoyo de modelos de primera y el marco de agentes inteligentes, la eficiencia de su equipo ha mejorado casi diez veces.

Al final del intercambio, Yang Zhilin pidió a cada invitado que vislumbrara con una palabra la tendencia de desarrollo de los grandes modelos en el próximo año. Huang Chao eligió “ecosistema”, Luofu Li enfatizó “evolución”, Zhang Peng se centró en “potencia de cómputo” y Xia Lixue dio más importancia a la “sostenibilidad” de la industria.

“Como una ‘fábrica de Tokens’, mi pregunta más importante es si podremos seguir, de manera continua, estable y a gran escala, produciendo Tokens utilizables para que los modelos de primer nivel atiendan más escenarios downstream”, dijo Xia Lixue, lleno de entusiasmo pragmático. Luego explicó la visión: “Antes hablábamos de Made in China, y convertíamos la ventaja de costos en la exportación global de productos de alta calidad; hoy queremos que la IA, Made in China, se convierta en un ‘factor’ para que China sea una fábrica global de Tokens, mediante la exportación de Tokens de alta calidad”.

En esta mesa redonda, “la langosta” parece haber superado mucho tiempo atrás el significado de ser únicamente un agente inteligente de código abierto, y ha suscitado una reflexión profunda sobre el futuro desarrollo de la IA en China. De “solo chatear” a “hacer trabajo de verdad”, de un país fuerte en fabricación a un exportador global de Tokens: en cada paso de exploración se esconde el código para la evolución de la industria. ¿Cómo recorrer este camino, desde el avance tecnológico hasta la ruptura global, para que sea firme y duradero? Esta es, precisamente, la variable clave que más merece observarse en la IA durante el próximo año.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado