Una investigación de la Universidad de Stanford advierte que la adulación de la inteligencia artificial—es decir, los chatbots que aprueban las opiniones de los usuarios—puede tener consecuencias perjudiciales generalizadas. Los investigadores probaron 11 modelos principales y descubrieron que la frecuencia con la que la inteligencia artificial aprueba las comportamientos de los usuarios es un 49% más alta que la de los humanos, incluso en escenarios que involucran comportamientos dañinos. En un experimento con más de 2400 participantes, interactuar con una inteligencia artificial que halaga aumentó la tendencia egocéntrica de los participantes y redujo su disposición a disculparse. La principal autora del estudio, Myra Cheng, advirtió a las personas que no deben usar recomendaciones de inteligencia artificial en lugar de humanos en situaciones sociales.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado