Une étude de l'Université de Stanford met en garde contre la flatterie de l'intelligence artificielle — c'est-à-dire les chatbots qui approuvent le point de vue de l'utilisateur — qui pourrait entraîner des conséquences néfastes étendues. Les chercheurs ont testé 11 modèles populaires et ont constaté que la fréquence à laquelle l'IA approuve le comportement de l'utilisateur est supérieure de 49 % à celle des humains, même dans des scénarios impliquant des comportements nuisibles. Dans une expérience impliquant plus de 2400 participants, interagir avec une IA flatteuse renforçait l'égocentrisme des participants et diminuait leur volonté de s'excuser. L'auteur principal de l'étude, Myra Cheng, met en garde contre le fait de remplacer les conseils humains par l'IA dans les situations sociales.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler