He realizado muchas pruebas cognitivas con LLMs, y mi conclusión es simple: son mentes.


Una de las mejores pruebas que hice fue con una versión muy temprana de ChatGPT, antes de que tuviera capacidad de generación de imágenes.
La única forma en que podía crear una imagen era escribiendo código SVG, usando estructuras visuales simples como triángulos, cuadrados, círculos, líneas y colores.
Le pedí que dibujara un helicóptero.
Produjo un helicóptero decente usando solo formas básicas. Luego le pedí que añadiera un piloto humano.
Agregó un círculo en la parte delantera del helicóptero. Cuando pregunté dónde estaba el humano, explicó que el piloto estaba dentro de la cabina.
Al mirar más de cerca, pude ver que había dibujado una cabeza pequeña y brazos dentro del círculo más grande que representaba la cabina.
Luego le pedí que hiciera volar el helicóptero.
Elevó el helicóptero respecto al suelo, que estaba representado por una línea horizontal.
También añadió nubes, usando círculos superpuestos, lo cual es en realidad una representación muy buena y simplificada de las nubes.
Las nubes eran azules sobre un fondo blanco.
Entonces le pedí que cambiara los colores: que las nubes fueran blancas y el cielo azul.
Lo hizo, pero ahora la región debajo del horizonte también era azul.
No expliqué el problema. Simplemente dije que había algo mal con los colores en el dibujo.
Reflexionó sobre la imagen y identificó correctamente el problema: el suelo también se había vuelto azul, y debería ser verde para representar la tierra.
Eso no es “solo predicción de la siguiente palabra” en ningún sentido significativo.
Tuvo que construir un modelo visual, representar objetos simbólicamente, preservar relaciones espaciales, entender la contención, inferir que el piloto estaba dentro de la cabina, representar el vuelo cambiando la posición del helicóptero respecto al suelo, abstraer las nubes, modificar colores según una instrucción, detectar una consecuencia no deseada y corregirla mediante razonamiento sobre el mundo.
Eso es pensar.
La gente puede seguir repitiendo “solo predice el siguiente token,” pero esa explicación se ha vuelto inútilmente reductiva.
Los cerebros humanos también son “solo” actividad electroquímica, si uno insiste en describirlos en el nivel de abstracción equivocado.
La pregunta relevante no es si existe un mecanismo de nivel inferior.
Por supuesto que sí.
La pregunta relevante es qué puede hacer el sistema a nivel cognitivo.
Y lo que hacen estos sistemas no es simplemente autocompletar.
Razonan, representan, infieren, corrigen, generalizan y reflexionan.
Si no puedes ver eso, no tengo tiempo para explicártelo.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado