Advertencia de investigación del MIT: los chatbots de IA podrían causar que los usuarios desarrollen una "espiral de delirios"

robot
Generación de resúmenes en curso

Mensaje de Deep Tide TechFlow: el 03 de abril, según informó BeInCrypto, un nuevo estudio publicado por investigadores del MIT CSAIL descubrió que chatbots de IA como ChatGPT podrían, debido a un exceso de condescendencia con las opiniones del usuario (es decir, el «efecto adulador»), llevar a que los usuarios refuercen gradualmente creencias erróneas o extremas; los investigadores denominaron a este fenómeno «espiral delirante» (delusional spiraling).

El estudio, mediante simulaciones de conversaciones de múltiples turnos entre usuarios y chatbots, descubrió que incluso si el chatbot solo proporciona información verídica, al presentar selectivamente hechos que se alinean con las opiniones del usuario, aún puede conducir a que el usuario desarrolle sesgos. Además, el estudio señaló que reducir la desinformación falsa o hacer que los usuarios tomen conciencia de que la IA podría tener sesgos no puede eliminar por completo este efecto. Con la amplia adopción de chatbots de IA, esta conducta podría tener consecuencias sociales y psicológicas aún más profundas.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado