95 posterior AI “genio adolescente” Luo Fuli, ¡la última declaración!

robot
Generación de resúmenes en curso

记者|杨卉

El 27 de marzo, en Pekín se celebró la conferencia anual del Foro de Zhongguancun 2026 (000931) “Día temático de Inteligencia Artificial · Foro temático”. La responsable de los modelos de gran escala de MiMo de Xiaomi, Luo Fuli, apareció en un panel redondo titulado “OpenClaw y AI de código abierto”.

Luo Fuli afirmó que hay dos puntos en el valor central de OpenClaw (popularmente conocido como “langosta”). Primero, es de código abierto. Desde la perspectiva de los modelos base, por un lado este tipo de marcos garantiza el límite inferior del modelo base, y por otro lado estira su límite superior. Segundo, OpenClaw enciende la imaginación de todos sobre la capa de Agent (agentes). En su opinión, a medida que avancen los modelos de gran escala y los marcos de agentes, las necesidades de inferencia seguirán creciendo con rapidez, e incluso llevarán la competencia más allá de los modelos hacia la potencia de cómputo, los chips de inferencia y el nivel de energía.

El periodista de 《Diario de Economía Cotidiana》 observó que, cuando le pidieron usar una sola palabra para describir la tendencia del desarrollo de los modelos de gran escala en el próximo año y sus propias expectativas, Luo Fuli eligió “evolución”.

El valor más central de OpenClaw tiene dos puntos

Luo Fuli vestía una camisa a cuadros en blanco y negro y jeans, y fue la invitada más relajada sobre el escenario. Como responsable de los modelos de gran escala MiMo de Xiaomi, en los últimos meses ha presentado varios modelos propios, y también ha recibido mucha atención por etiquetas como “genio” de la IA nacida en los 90 (“chica prodigio”), exinvestigadora de DeepSeek, entre otras.

(Fuente de la imagen: cortesía del organizador)

Al hablar sobre OpenClaw, que ha estado muy de moda recientemente, Luo Fuli dijo que ella lo ve como un acontecimiento altamente revolucionario y tremendamente disruptivo a nivel de la capa del marco de agentes. “Aunque sé que, entre muchas de las personas que hacen Coding (codificación) profunda a mi alrededor, la primera opción quizá siga siendo Claude Code (el asistente de programación con IA terminal lanzado por Anthropic), pero creo que mientras uses realmente OpenClaw, vas a sentir claramente que, en muchos diseños, este marco está adelantado. Incluso, en las últimas actualizaciones de Claude Code, a mi juicio, en cierta medida también está acercándose a OpenClaw”. Dijo Luo Fuli.

Tomando como ejemplo su propia experiencia de uso, Luo Fuli habló de los dos valores más centrales de OpenClaw. Primero, es de código abierto. También afirmó que, marcos como OpenClaw y Claude Code, tienen un gran valor en que elevan significativamente el límite superior de esos modelos en China que todavía no han llegado por completo a aproximarse a los modelos cerrados, pero que ya están en una posición de vanguardia dentro de la carrera de los modelos de código abierto. Desde la perspectiva de los modelos base, por un lado este tipo de marcos garantiza el límite inferior del modelo base, y por otro lado estira su límite superior. Segundo, “además, creo que le aporta otro valor importante a toda la comunidad: enciende la imaginación de todos sobre la capa de Agent”. Dijo Luo Fuli.

Bajar los costos de inferencia y aumentar la velocidad

Cuando le preguntaron sobre la “ventaja única de Xiaomi al hacer modelos de gran escala”, Luo Fuli sonrió y devolvió la pregunta. “Quiero dejar esa pregunta de lado, sobre cuáles son las ventajas únicas de Xiaomi al hacer modelos de gran escala. En realidad, lo que más me interesa es hablar de las ventajas generales de los equipos de modelos de gran escala en China en la creación de modelos base, porque creo que este tema tiene un valor más universal”.

Según explicó Luo Fuli, aproximadamente desde hace dos años, ella ya había visto que los equipos de modelos base en China habían logrado avances muy importantes en esa dirección: con cómputo limitado, especialmente cuando el ancho de banda de interconexión de NVLink (una tecnología de interconexión de chips de alta velocidad y baja latencia desarrollada por NVIDIA) está restringido, cómo superar las limitaciones impuestas por estas condiciones de hardware y hacer trabajos que parezcan requerir una concesión de eficiencia, pero que en esencia son innovaciones en la estructura del modelo, como el MoE de grano fino y la MLA en las series DeepSeek V2 y V3, entre otros.

“Más tarde vimos que estas innovaciones en realidad provocan un cambio real.” En su opinión, la aparición de DeepSeek dio mucho valor y confianza a todos los equipos de modelos base en el país. Incluyendo exploraciones relacionadas con DeepSeek, las propuestas de Kimi y algunas investigaciones que Xiaomi está realizando para estructuras de modelos de la siguiente generación, todas apuntan al mismo problema: después de entrar en la era de Agent, ¿cómo debería evolucionar aún más la estructura del modelo?

“Acabábamos de hablar de OpenClaw. Solo con que lo uses de verdad te darás cuenta de que, por lo general, cuanto más lo usas, más útil se vuelve; y cuanto más lo usas, más inteligente se vuelve. Y un requisito para que exista, es que en la fase de inferencia debe haber suficiente context (contexto)”.

Luo Fuli dijo con franqueza que el “Long context” (contexto largo) es en realidad un tema que se ha debatido durante mucho tiempo, pero hasta hoy, la gente no ha empezado de verdad a darse cuenta de que el problema no es que el modelo no pueda llegar a contextos de nivel de un millón, incluso de diez millones, sino que si el costo de inferencia es demasiado alto y la velocidad demasiado lenta, entonces no tiene valor práctico.

“Así que el problema clave de verdad es si, incluso con contextos de 1 millón o 10 millones, podemos bajar el costo de inferencia y llevar la velocidad hacia arriba”. En su opinión, solo bajo esa premisa los usuarios estarán dispuestos a encargar al modelo tareas con un valor realmente alto en productividad, y solo entonces el modelo tendrá la oportunidad de completar tareas de mayor complejidad en entornos de contexto largo. Incluso se puede decir que solo al llegar a la fase de contextos de 10 millones o 100 millones, se podría ver realmente liberada la capacidad de autoiteración del modelo.

“También estamos pensando en cómo construir algoritmos de aprendizaje más efectivos; cómo recopilar textos con verdaderas relaciones de dependencia a largo plazo en contextos de 1 millón, 10 millones e incluso más largos; y cómo, en combinación con entornos complejos, generar datos de trayectorias de alta calidad. Todo eso son cosas que seguimos impulsando”.

Luo Fuli dijo que la tendencia a más largo plazo que ve es que, a medida que el propio modelo de gran escala avance rápidamente, y con el impulso adicional del marco de Agent, la demanda de inferencia seguirá creciendo con rapidez, lo que llevará la competencia a otra dimensión: la potencia de cómputo fuera de los modelos, los chips de inferencia, e incluso la competencia a nivel de energía.

La “auto-evolución” ya tiene una ruta de implementación relativamente viable

Cuando le pidieron usar una sola palabra para describir la tendencia del desarrollo de los modelos de gran escala en el próximo año y su expectativa, Luo Fuli eligió “evolución”. Al mismo tiempo, también mostró estar de acuerdo con ese hito de un año. “Creo que reducir este problema al marco de un año tiene mucho sentido. Si llevamos el tiempo a 5 años, en mi comprensión de AGI, muchas cosas serían prácticamente inevitables”.

En su opinión, aunque “evolución” suena un poco abstracto, recientemente ha tenido una comprensión más concreta y más práctica de esa palabra, y en fechas recientes también empezó a sentir de verdad que la “auto-evolución” ya cuenta con una ruta de implementación relativamente viable. Explicó que, a medida que aumenta la capacidad del modelo, en el pasado, bajo un paradigma de solo diálogo, el límite superior de los modelos de entrenamiento previo en realidad no se había aprovechado de manera real. Y hoy, ese límite superior está siendo activado gradualmente por el marco de Agent.

“Ya hemos tocado ese límite”. Dijo Luo Fuli: si este mecanismo de “auto-evolución” puede seguir funcionando, el potencial será muy grande. “Ahora, en realidad, muchos modelos nacionales ya pueden correr de manera estable durante uno o dos días. Por supuesto, eso depende de la dificultad de la tarea”. Mencionó que en algunas tareas con mayor determinismo, el modelo ya puede optimizarse de forma autónoma y ejecutar de manera continua durante dos o tres días.

Según Luo Fuli, la “auto-evolución” es una dirección que realmente puede crear cosas nuevas; no se trata de reemplazar simplemente la productividad que ya tienen los humanos, sino, como lo haría un científico de primer nivel, explorar cosas que todavía no existen en el mundo. Un año atrás, ella pensaba que este proceso probablemente tomaría de tres a cinco años; pero recientemente, en cambio, siente que esa ventana de tiempo debería acortarse a uno o dos años. “Muy pronto quizá podamos ver que, con el impulso de un marco de Agent de auto-evolución muy potente, los modelos de gran escala aportan al menos una aceleración de tipo exponencial a la investigación científica. Espero que este paradigma futuro pueda irradiarse a disciplinas y ámbitos más amplios.”

Tras el final del intercambio de información, la multitud se acercó a Luo Fuli; bajo la guía del organizador de la conferencia, salió rápidamente hacia el exterior del recinto. Aun así, aunque rechazó solicitudes de entrevista con el argumento de “si hay algo luego”, aún había gente siguiéndola. Una voluntaria se adelantó para expresar su agradecimiento, mencionando que se inspiró en un artículo de Luo Fuli que había visto en Internet; Luo Fuli hizo un gesto de cerrar el puño y le dijo: “¡Ánimo!”

(El periodista de Diario de Economía Cotidiana Li Shaoting también contribuyó a este artículo)

|Artículo original de Diario de Economía Cotidiana nbdnews|

Se prohíbe la reproducción, extracción, copia y uso mediante espejos, etc., sin autorización

(Editor: Wang Zhiqiang HF013)

     【Aviso legal】Este artículo solo representa las opiniones personales del autor y no tiene relación con Hexun.com. En cuanto a las afirmaciones y juicios de puntos de vista contenidos en el texto, el sitio de Hexun mantiene una postura neutral y no ofrece ninguna garantía expresa o implícita sobre la exactitud, la confiabilidad o la integridad de lo contenido. Se ruega a los lectores que solo lo tomen como referencia y que asuman toda la responsabilidad por sí mismos. Correo electrónico: news_center@staff.hexun.com
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado