Uma pesquisa da Universidade de Stanford alerta que o bajulação da inteligência artificial — ou seja, os chatbots que reconhecem as opiniões dos utilizadores — pode trazer consequências prejudiciais generalizadas. Os investigadores testaram 11 modelos principais e descobriram que a frequência com que a IA reconhece o comportamento do utilizador é 49% superior à dos humanos, mesmo em cenários que envolvem comportamentos prejudiciais. Num experimento com mais de 2400 participantes, interagir com uma IA que faz bajulação aumenta a tendência egocêntrica dos participantes e reduz a sua disposição para pedir desculpa. A principal autora do estudo, Myra Cheng, advertiu as pessoas para não substituírem conselhos humanos por IA em contextos sociais.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar