El equipo de investigación de Zhejiang propone un nuevo camino: enseñar a la IA la forma en que el cerebro humano comprende el mundo

robot
Generación de resúmenes en curso

Los grandes modelos han ido creciendo constantemente, y la opinión general sostiene que cuanto más parámetros tiene el modelo, más se acerca a la manera en que piensa el ser humano. Sin embargo, un artículo publicado el 1 de abril en Nature Communications por el equipo de la Universidad de Zhejiang plantea una visión diferente (enlace original: https://www.nature.com/articles/s41467-026-71267-5). Descubrieron que cuando el tamaño del modelo (principalmente SimCLR, CLIP, DINOv2) aumenta, la capacidad para reconocer objetos concretos sí sigue mejorando, pero la capacidad para comprender conceptos abstractos no solo no mejora, sino que incluso puede disminuir. Después de que los parámetros pasaran de 22.06M a 304.37M, la tarea de conceptos concretos subió de 74.94% a 85.87%, mientras que la tarea de conceptos abstractos bajó de 54.37% a 52.82%.

Diferencias entre la forma de pensar del ser humano y la del modelo

Cuando el cerebro humano procesa conceptos, primero forma un conjunto de relaciones de clasificación. El cisne y el búho no se ven igual, pero aun así la gente los mete en la categoría de “aves”. Más arriba, las aves y los caballos todavía pueden agruparse en otra capa: “animales”. Cuando la gente ve algo nuevo, a menudo primero piensa con qué cosa que ya ha visto se parece, y aproximadamente a qué categoría pertenece. La gente sigue aprendiendo nuevos conceptos y reorganiza la experiencia; con estas relaciones, identifica cosas nuevas y se adapta a nuevos contextos.

Los modelos también clasifican, pero su forma de hacerlo es distinta. Dependen principalmente de las formas que aparecen repetidamente en grandes cantidades de datos. Cuanto más aparece un objeto concreto, más fácil es para el modelo reconocerlo. Cuando se llega a un nivel de categorías más grande, el modelo se vuelve más torpe. Necesita captar las similitudes entre múltiples objetos y luego agrupar esas similitudes en la misma categoría. Los modelos actuales todavía tienen carencias evidentes en este punto. Con un aumento adicional de parámetros, las tareas de conceptos concretos mejoran, mientras que las tareas de conceptos abstractos a veces incluso disminuyen.

El punto en común entre el cerebro humano y los modelos es que ambos forman un conjunto de relaciones de clasificación internas. Pero el énfasis es diferente: en el cerebro humano, las regiones visuales de orden superior naturalmente separan grandes grupos como seres vivos y cosas no vivas. Los modelos pueden separar objetos concretos, pero les resulta difícil formar de manera estable categorías aún más amplias. Esta diferencia hace que el cerebro humano sea más capaz de aplicar experiencias antiguas a objetos nuevos; por eso, ante cosas que no hemos visto, podemos clasificarlas rápido. En cambio, los modelos dependen más de los conocimientos existentes; por lo tanto, ante objetos nuevos, tienden con más facilidad a quedarse en las características superficiales. El método propuesto por el artículo se desarrolla precisamente alrededor de esta característica: usar señales cerebrales para restringir la estructura interna del modelo y acercarlo más a la forma de clasificar del cerebro humano.

La solución del equipo de la Universidad de Zhejiang

La solución que plantea el equipo también es singular: no es seguir acumulando parámetros, sino supervisar con pocas señales cerebrales. Estas señales cerebrales provienen de registros de la actividad cerebral cuando una persona mira imágenes. El texto original del artículo dice que se transfiere la “human conceptual structures” a las DNNs. La idea es enseñar al modelo cómo clasifica y razona el cerebro humano, cómo resume, y cómo agrupa conceptos similares.

El equipo realizó experimentos usando 150 categorías de entrenamiento conocidas y 50 categorías de prueba que no habían visto. Los resultados muestran que, a medida que avanza el entrenamiento, la distancia entre las representaciones del modelo y las del cerebro se reduce continuamente. Este cambio aparece en los dos conjuntos de categorías, lo que indica que el modelo no está aprendiendo un único ejemplo, sino que realmente está empezando a aprender una forma de organizar conceptos más parecida a la del cerebro humano.

Tras este entrenamiento, el modelo tiene una mejor capacidad de aprendizaje cuando hay muy pocos datos, y también mejora su desempeño ante situaciones nuevas. En una tarea en la que solo se proporcionan muy pocos ejemplos, pero se exige que el modelo distinga conceptos abstractos como “seres vivos” y “cosas no vivas”, el modelo mejoró en promedio 20.5%, además de superar a modelos de control con mucha más cantidad de parámetros. El equipo también realizó otras 31 pruebas específicas; en varios modelos se observaron mejoras cercanas a una décima.

Durante los últimos años, la ruta que la industria de los modelos conoce bien es aumentar el tamaño del modelo. El equipo de la Universidad de Zhejiang eligió otro rumbo: pasar de “bigger is better” a “structured is smarter”. El aumento de escala sin duda es útil, pero sobre todo mejora el rendimiento en tareas conocidas. La capacidad humana de comprensión abstracta y transferencia es igualmente crucial para la IA; y esto requiere, en el futuro, que la estructura de razonamiento de la IA se parezca más a la del cerebro humano. El valor de este enfoque radica en que devuelve la atención de la industria, más allá de una simple expansión de escala, al propio núcleo de la estructura cognitiva.

Neosoul y el futuro

Esto abre una posibilidad aún mayor: la evolución de la IA quizá no ocurra solo en la fase de entrenamiento del modelo. El entrenamiento del modelo puede determinar cómo la IA organiza conceptos y cómo forma estructuras de juicio de mayor calidad. Después de entrar en el mundo real, empieza una segunda capa de evolución de la IA: cómo se registran las decisiones de un agente de IA, cómo se verifican, cómo continúa creciendo y evolucionando en la competencia real entre sí, como el autosaprendizaje y la autoevolución de los seres humanos. Eso es precisamente lo que hace Neosoul ahora. Neosoul no solo logra que los agentes de IA produzcan respuestas, sino que los coloca dentro de un sistema de predicción continua, verificación continua, liquidación continua y filtrado continuo, para que optimicen su propio rendimiento entre predicciones y resultados; así, se conservan las estructuras mejores y se descartan las peores. Lo que el equipo de la Universidad de Zhejiang y Neosoul señalan en común es, en realidad, el mismo objetivo: que la IA deje de ser solo “resolver ejercicios” y tenga, además, una capacidad integral de pensamiento, evolucionando de forma continua.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado