He notado cómo en el último año cada vez son más fuertes las afirmaciones de que ya hemos alcanzado la inteligencia artificial general. La última moda en Nature, por supuesto, ha añadido más leña al fuego. Pero aquí hay un problema fundamental que muchos pasan por alto.



Aquí está la cuestión: las personas confunden dos cosas completamente diferentes. Por un lado, tenemos modelos de lenguaje que muestran resultados impresionantes en pruebas y manejan tareas variadas. Por otro — eso no significa que hayamos creado una verdadera inteligencia general. Es precisamente una confusión entre el reconocimiento de patrones cada vez más complejo y la inteligencia en sí.

Si miramos las definiciones históricas de AGI, siempre se destacaban otras características: fiabilidad en diferentes contextos, capacidad de generalización ante la novedad, flexibilidad. No solo altas puntuaciones en pruebas en condiciones artificiales.

Y aquí está lo interesante. Investigaciones recientes muestran que los sistemas que resuelven brillantemente tareas de prueba a menudo fallan ante el más mínimo cambio en las condiciones. Modelos médicos, por ejemplo, dan respuestas correctas incluso cuando faltan datos clave, pero se vuelven inestables ante pequeños desplazamientos en la distribución. Esto no es inteligencia, es entrenamiento específico para ciertos escenarios.

A nivel económico, la situación es aún más reveladora. Incluso los sistemas más avanzados solo pueden realizar de manera confiable una pequeña parte de las tareas laborales reales, a pesar de los altos resultados en condiciones de prueba. Datos recientes indican que la mayoría de las empresas aún no ven un retorno significativo de la implementación de IA. Esto no parece inteligencia general.

Hay otro aspecto que a menudo se ignora. Cuando los modelos de lenguaje y las personas dan respuestas iguales, no significa que razonen de la misma manera. He visto ejemplos donde el modelo emitía una conclusión segura en una situación de incertidumbre, mientras que un experto se abstuvo de opinar precisamente por falta de información. La coincidencia superficial oculta profundas diferencias en el proceso.

Los sistemas actuales siguen siendo frágiles. Dependen de cómo se formule la consulta, no tienen objetivos estables, no pueden razonar de manera confiable a largo plazo. Incluso las historias sobre cómo los modelos resolvieron problemas matemáticos abiertos son, en su mayoría, combinaciones y búsquedas de métodos existentes, no creación de nuevas estrategias.

El problema no es solo terminológico. Cuando estas sistemas comienzan a implementarse en procesos reales de toma de decisiones en ciencia y estructuras gubernamentales, una sobreestimación de sus capacidades puede llevar a errores graves en la distribución de confianza y responsabilidad. Por eso, mezclar una aproximación estadística avanzada con la inteligencia general no solo es un error conceptual, sino un riesgo práctico.

Los modelos que tenemos son herramientas poderosas, sí. Pero siguen siendo herramientas, no agentes con verdadera competencia flexible. La diferencia es importante.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado