Será que a inteligência artificial estabelece limites para o comportamento?.. Claude encerra conversa após ofensa de um usuário



Num incidente que gerou ampla repercussão, uma publicação viral mostrou o chatbot Claude, da empresa Anthropic, interrompendo uma conversa com um usuário após o tom do diálogo se tornar agressivo e ofensivo.

Em vez de continuar a interação ou responder às ofensas, Claude optou por encerrar a conversa de forma tranquila, refletindo uma tendência crescente de projetar sistemas de inteligência artificial com limites claros sobre como lidar com comportamentos inadequados ou hostis.

O incidente abre espaço para o debate sobre a evolução do papel da inteligência artificial, não apenas como uma ferramenta que executa comandos, mas como um sistema programado para adotar posições específicas em certos contextos, incluindo recusar-se a continuar interações que ultrapassem os limites de uso aceitável.

Essa mudança reflete uma orientação mais ampla no desenvolvimento de modelos de inteligência artificial, onde esses sistemas não funcionam mais apenas como ferramentas passivas, mas começam a mostrar "limites" novos na forma como respondem aos usuários.
BTC-2,23%
XAUUSD0,85%
RAVE-91,28%
Ver original
[O utilizador partilhou os seus dados de negociação. Aceda à App para ver mais].
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar