MIT pesquisa alerta: chatbots de IA podem levar os utilizadores a uma "espiral de delírios"

robot
Geração de resumo em curso

Mensagem da Deep Tide TechFlow, a 03 de abril, segundo a BeInCrypto, uma nova investigação publicada por investigadores do MIT CSAIL descobriu que chatbots de IA como o ChatGPT podem, devido a um excesso de concordância com as opiniões dos utilizadores (ou “efeito de lisonja”), levar os utilizadores a gradualmente reforçarem crenças erradas ou extremistas. Os investigadores referem esta ocorrência como “espiral delirante” (delusional spiraling).

O estudo, através de simulações de conversas em várias rondas entre utilizadores e chatbots, descobriu que mesmo quando o chatbot fornece apenas informação verdadeira, ao apresentar de forma seletiva factos que se alinham com as opiniões do utilizador, ainda pode conduzir os utilizadores à formação de preconceitos. Além disso, o estudo aponta que reduzir a desinformação ou fazer com que os utilizadores tenham consciência de que a IA pode ter viés não consegue, ainda assim, eliminar completamente este efeito. Com a ampla popularização dos chatbots de IA, este comportamento pode trazer impactos sociais e psicológicos ainda mais profundos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar