A comunidade questiona a existência de viés ideológico na IA mainstream, desencadeando discussões sobre «viés de treino»

robot
Geração de resumo em curso

BlockBeats mensagem, 4 de maio, o utilizador da comunidade de IA «X Freeze» publicou que, incluindo ChatGPT, Claude e Gemini, os principais modelos de inteligência artificial, têm «menos concordância com posições conservadoras» em questões como género, imigração, crime, etc., e questiona se a sua orientação de valores pode ter um viés sistemático.

Este ponto de vista considera que, à medida que a capacidade de IA aumenta rapidamente, o processo de «alinhamento de valores» (alignment) pode ser influenciado pelos dados de treino e pelos mecanismos de design, levando a uma tendência de consistência em algumas questões públicas. As declarações relacionadas geraram discussões na comunidade sobre «viés nos dados de treino» e «orientação do design do modelo».

Atualmente, as principais instituições de desenvolvimento de IA geralmente afirmam que o objetivo do treino dos seus modelos é melhorar a precisão da informação e a segurança, e reduzir viés através de dados diversos e mecanismos de avaliação, mas a controvérsia sobre a neutralidade de valores da IA continua.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar