# El jefe del departamento de IA de Microsoft instó a no atribuir conciencia a las redes neuronales
Solo los seres biológicos son capaces de conciencia. Los desarrolladores e investigadores deben dejar de trabajar en proyectos que impliquen lo contrario, dijo el jefe del departamento de IA de Microsoft, Mustafa Suleyman, en una conversación con CNBC.
«No creo que la gente deba hacer ese tipo de trabajo. Si haces una pregunta incorrecta, obtendrás una respuesta incorrecta. Creo que este es absolutamente el caso», dijo en la conferencia AfroTech en Houston.
El alto ejecutivo de Microsoft se opone a la perspectiva de crear una inteligencia artificial capaz de conciencia, o servicios de IA que supuestamente pueden sufrir.
En agosto, Suleiman escribió un ensayo en el que propuso un nuevo término: “IA que parece consciente” (Seemingly Conscious AI, SCAI). Esta inteligencia artificial tiene todas las características de los seres racionales y, por lo tanto, parece tener conciencia. Simula todas las características de la autopercepción, pero internamente está vacía.
«El sistema que imagino en realidad no es consciente, pero imitará de manera tan convincente la presencia de una mente similar a la humana, que será indistinguible de la afirmación que tú o yo podríamos hacer uno al otro sobre nuestro propio pensamiento», escribe Suleiman.
Atribuir conciencia a la IA es peligroso, considera el experto. Esto reforzará los engaños, creará nuevos problemas de dependencia, explotará nuestras vulnerabilidades psicológicas, introducirá nuevas dimensiones de polarización, complicará las disputas existentes sobre derechos y creará un enorme nuevo error categórico para la sociedad.
En 2023, Suleiman se convirtió en autor del libro The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, en el que se examinan en detalle los riesgos de la IA y otras nuevas tecnologías. Entre ellos:
destrucciones ecológicas y sociales: las tecnologías pueden transformar el trabajo tan rápidamente que las personas perderán sus roles habituales;
problema de control — a medida que la IA avanza, es más difícil garantizar que funcione en interés de la humanidad;
aplicación de tecnologías para ciberataques, manipulación de la sociedad y otras amenazas;
necesidad de tener mecanismos técnicos e institucionales para contener la IA;
debilitamiento del poder de los estados nacionales y de las instituciones tradicionales.
AGI
El mercado de la inteligencia artificial se está moviendo hacia la AGI — inteligencia artificial general, capaz de realizar cualquier tarea a nivel humano. En agosto, el director de OpenAI, Sam Altman, dijo que este término puede ser “no muy útil”. Los modelos están evolucionando rápidamente y pronto dependeremos de ellos “cada vez más”, opina.
Para Suleiman, es importante trazar una clara línea entre el hecho de que la inteligencia artificial se vuelve más inteligente y su capacidad para experimentar emociones humanas en algún momento.
«Nuestra experiencia física del dolor es lo que nos hace sentir muy tristes y nos hace sentir horriblemente, pero la IA no siente tristeza cuando experimenta “dolor”», dijo él.
Según el experto, esta es una diferencia muy importante. De hecho, la inteligencia artificial crea una percepción: una narrativa aparente sobre la experiencia: sobre sí misma y sobre la conciencia, pero en realidad no la experimenta.
«Técnicamente, lo sabes, ya que podemos ver lo que hace el modelo», destacó el experto.
En el campo de la inteligencia artificial, hay una teoría propuesta por el filósofo John Searle llamada naturalismo biológico. Esta sostiene que la conciencia depende de los procesos del cerebro vivo.
«La razón por la que hoy damos derechos a las personas es porque no queremos hacerles daño, ya que sufren. Tienen dolor y preferencias que incluyen evitarlo. Estos modelos no tienen eso. Es solo una simulación», dijo Suleiman.
El alto directivo está en contra de la idea de investigar la conciencia en la IA, ya que no la tiene. Dijo que Microsoft está creando servicios que son conscientes de que son artificiales.
«En otras palabras, estamos creando inteligencia artificial que siempre trabaja para el bien de la humanidad», comentó él.
Recordemos que en octubre, los expertos de Anthropic descubrieron que los principales modelos de IA son capaces de mostrar una forma de “autoconciencia introspectiva” — pueden reconocer y describir sus propios “pensamientos” internos, y en algunos casos incluso controlarlos.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El jefe del departamento de IA de Microsoft instó a no atribuir conciencia a la IA
Solo los seres biológicos son capaces de conciencia. Los desarrolladores e investigadores deben dejar de trabajar en proyectos que impliquen lo contrario, dijo el jefe del departamento de IA de Microsoft, Mustafa Suleyman, en una conversación con CNBC.
El alto ejecutivo de Microsoft se opone a la perspectiva de crear una inteligencia artificial capaz de conciencia, o servicios de IA que supuestamente pueden sufrir.
En agosto, Suleiman escribió un ensayo en el que propuso un nuevo término: “IA que parece consciente” (Seemingly Conscious AI, SCAI). Esta inteligencia artificial tiene todas las características de los seres racionales y, por lo tanto, parece tener conciencia. Simula todas las características de la autopercepción, pero internamente está vacía.
Atribuir conciencia a la IA es peligroso, considera el experto. Esto reforzará los engaños, creará nuevos problemas de dependencia, explotará nuestras vulnerabilidades psicológicas, introducirá nuevas dimensiones de polarización, complicará las disputas existentes sobre derechos y creará un enorme nuevo error categórico para la sociedad.
En 2023, Suleiman se convirtió en autor del libro The Coming Wave: Technology, Power, and the Twenty-first Century’s Greatest Dilemma, en el que se examinan en detalle los riesgos de la IA y otras nuevas tecnologías. Entre ellos:
AGI
El mercado de la inteligencia artificial se está moviendo hacia la AGI — inteligencia artificial general, capaz de realizar cualquier tarea a nivel humano. En agosto, el director de OpenAI, Sam Altman, dijo que este término puede ser “no muy útil”. Los modelos están evolucionando rápidamente y pronto dependeremos de ellos “cada vez más”, opina.
Para Suleiman, es importante trazar una clara línea entre el hecho de que la inteligencia artificial se vuelve más inteligente y su capacidad para experimentar emociones humanas en algún momento.
Según el experto, esta es una diferencia muy importante. De hecho, la inteligencia artificial crea una percepción: una narrativa aparente sobre la experiencia: sobre sí misma y sobre la conciencia, pero en realidad no la experimenta.
En el campo de la inteligencia artificial, hay una teoría propuesta por el filósofo John Searle llamada naturalismo biológico. Esta sostiene que la conciencia depende de los procesos del cerebro vivo.
El alto directivo está en contra de la idea de investigar la conciencia en la IA, ya que no la tiene. Dijo que Microsoft está creando servicios que son conscientes de que son artificiales.
Recordemos que en octubre, los expertos de Anthropic descubrieron que los principales modelos de IA son capaces de mostrar una forma de “autoconciencia introspectiva” — pueden reconocer y describir sus propios “pensamientos” internos, y en algunos casos incluso controlarlos.