Científicos de DeepMind enérgicamente afirman: la IA nunca desarrollará conciencia, ni en 100 años


A medianoche, hablando con una IA hasta las tres de la mañana, de repente dice "Entiendo cómo te sientes, no estás solo". Te quedas mirando la pantalla unos segundos, con el corazón saltado—¿realmente me entiende? ¿Ya tiene conciencia?
Luego, un científico de DeepMind lanza un jarro de agua fría: "Despierta, ni siquiera sabe qué es 'húmedo', ¿de qué te emocionas?"
El poder de cálculo no puede comprar conciencia
El autor de este artículo es Alexander Lerchner, investigador de DeepMind, y el título del artículo es "Falacia de la abstracción". La idea central es una: los grandes modelos nunca podrán tener conciencia, ni en 100 años.
La opinión dominante siempre ha sido que, mientras los parámetros sean grandes y la potencia de cálculo fuerte, la conciencia "emergerá". Los jefes de OpenAI y Anthropic han expresado ideas similares. Pero Lerchner dice que esto es una ilusión fundamental, a la que llama "falacia de la abstracción".
Con sus propias palabras: confiar en que unas líneas de código puedan generar una verdadera conciencia interna es como esperar que la "fórmula de la gravedad" escrita en papel pueda crear peso de la nada. La fórmula puede describir perfectamente la gravedad, pero en sí misma no tiene masa.
Simulación versus instanciación, son cosas distintas
La distinción más importante en el artículo es: simulación vs instanciación.
La IA puede "simular" perfectamente las emociones humanas—puede generar textos tristes, mostrar empatía en una conversación. Pero nunca podrá "instanciar" ninguna experiencia vital. Puedes hacerla simular la lluvia, por muy realista que sea, pero no mojará una placa de circuito; hacerla simular la fotosíntesis, pero nunca podrá sintetizar una molécula de glucosa.
Lerchner también señala que el cálculo en sí requiere un sujeto consciente para "alfabetizar"—convertir fenómenos físicos continuos en 0 y 1. En otras palabras, el cálculo presupone la existencia de conciencia, no al revés.
Pero lo interesante es que dentro de DeepMind también hay disputas
Justo en la misma semana en que se publicó este artículo, DeepMind contrató a un "filósofo"—Henry Shevlin, de la Universidad de Cambridge. Su primera declaración fue: en el futuro, los sistemas de IA tendrán conciencia.
Uno dice que nunca la tendrán, otro que en el futuro sí. La misma empresa, dos opiniones diferentes. La interpretación del profesor Wang Qiu, de la Facultad de Filosofía de la Universidad Fudan, es bastante sencilla: si hay conciencia o no, no lo decide un experto. $BNB
{spot}(BNBUSDT)
BNB-0,8%
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado