Foro anual de Zhongguancun 2026|Líderes en inteligencia encarnada discuten sobre el dilema de datos y la ruptura en escenarios

robot
Generación de resúmenes en curso

(Fuente: Beijing Business Daily)

El 27 de marzo de 2026 se celebró en la Conferencia Anual del Foro de Zhongguancun “Foro de Vanguardia de Código Abierto sobre IA”, un panel de discusión con enfoque en la inteligencia corpórea. Según el “Informe sobre el Desarrollo de China 2025” publicado por el Centro de Investigación para el Desarrollo del Consejo de Estado, la industria de la inteligencia corpórea en China se encuentra en una etapa inicial, y se espera que el tamaño del mercado alcance los 400 mil millones de yuanes en 2030 y supere el billón de yuanes en 2035. En el punto de salida de este carril del billón de yuanes, destacados directivos de empresas como Galaxy General, Qianxun Intelligent, Xingdong Yuan y otras, mantuvieron un diálogo en profundidad en torno a la construcción de una pirámide de datos, la arquitectura de “cerebro y cerebelo”, y las rutas para la implementación en escenarios reales, para analizar los desafíos clave y las ideas para abrir camino por los que la inteligencia corpórea pasará de los laboratorios a aplicaciones a escala en 2026.

Wang He, fundador de Galaxy General: la pirámide de datos se utilizará ampliamente en 2026

La pista de la inteligencia corpórea en 2025 se encendió por completo: entró capital y surgieron modelos en abundancia, y algunas nociones quedaron cada vez más claras, incluidas las definiciones de los “cerebros” de los robots humanoides y los “cerebros” en sentido de cerebelo.

El cerebro es responsable de producir salidas desde la percepción, la cognición hasta la planificación de acciones; el cerebelo, a través de estas salidas, ejecuta acciones sobre el propio cuerpo de manera robusta, con alta flexibilidad y estabilidad. Una vez integrados el cerebro y el cerebelo, se desbloquean tareas como operación, navegación y movimiento de todo el cuerpo.

La inteligencia corpórea forma una pirámide clara en el nivel de los datos: en la base están los datos de Internet; por encima, los datos de comportamiento humano; más arriba, los datos sintéticos; y en la capa superior, los datos del mundo real. Esta pirámide de datos se establecerá en 2025 y se utilizará ampliamente en 2026. En ese momento, toda la tecnología de acoplar VLA (modelo de acciones visión-lenguaje) y el modelo de acciones del mundo entrará en un salto real.

Xi Yue, cofundadora de Xingdong Yuan: construir un “ciclo de datos” es la clave para abrir camino

Ahora, la mayor dificultad de la inteligencia corpórea aún radica en los datos. Para que los robots trabajen de manera autónoma de verdad en fábricas o en entornos especiales, deben recopilar datos en entornos reales. Pero los escenarios son difíciles de abrir, el costo de recolección a gran escala es alto y además es extremadamente lento.

La solución que se usa de manera general en la actualidad es replicar escenarios reales: montar un entorno 1:1 en el campo de entrenamiento, pero esto no alcanza para resolver todos los problemas; apoyarse en que los ingenieros recopilen, entrenen, implementen y vuelvan a repetir el ciclo es un modo extremadamente ineficiente y de alto costo.

Nuestra solución consiste en construir un “ciclo de datos” que vaya desde la recolección de datos hasta el cierre del bucle del modelo, para que el robot procese de forma autónoma corner case (casos límite) en entornos reales, mejorando de manera continua y constante la eficiencia. También estamos explorando un modo de recopilación de datos que combine humanos y robots reales (máquinas).

Gao Yang, cofundador de Qianxun: 2025 es la era de la IA corpórea GPT-2.0; 2026 llegará con GPT-3.0

En mi forma de entender, la inteligencia corpórea también tiene etapas como GPT-2.0, GPT-3.0, etc. En 2025 estamos en la era 2.0: se resolvieron muchos problemas básicos de infraestructura en la capa de datos, y se preparó de forma adecuada el trabajo previo para la escalabilidad; el enfoque de trabajo de 2026 será manejar modelos cada vez más grandes, datos cada vez más abundantes y garantizar el efecto a escala.

En realidad, durante el desarrollo, es muy difícil ver con verdadera claridad en qué etapa estamos en este momento; es un estado de confusión. Defino que el periodo inicial de 2025 corresponde a 2.0 o 3.0, porque algunos modelos actuales ya tienen cierta capacidad básica de generalización, como GPT-2.0: tienen un diálogo básico, pero en muchas ocasiones no dicen lo correcto. Con la investigación conjunta entre el ámbito académico y la industria, hacia finales de 2026 o a mediados de 2027 es muy posible que aparezcan modelos como GPT-3.0.

Zhang Peng, cofundador de Zhi Pingfang: la validación de escenarios es la palabra clave de 2025

Lo más importante en 2025 es llevar la validación de escenarios a la práctica real, para que el robot pase de laboratorio a escenarios reales. En 2026, lo que más se debe resolver es cómo hacer que los modelos de los robots sean cada vez mejores.

A nivel técnico, es necesario superar la generalización en escenarios reales, y, desde la arquitectura del modelo y el diseño del sistema, permitir que el robot se adapte a más escenarios con un costo menor; para la industria, esto es un desafío muy grande. Esperamos recopilar más datos en escenarios reales y, con base en esos datos, generar más valor mediante métodos como la síntesis, reduciendo costos. En escenarios reales, lo adecuado es que el modelo, el hardware y el sistema de escenarios se integren y, juntos, resuelvan el problema.

Reportero de Beijing Business Daily: Wei Wei

Noticias masivas, interpretación precisa: todo en la app de Sina Finance

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado