Nestes últimos dias tenho estado a observar novamente os agentes de IA a operar na cadeia, e sinto que eles são mais parecidos com pessoas que têm mãos rápidas, mas emoções muito insensíveis. Consultar dados, monitorizar pools, fazer ordens de acordo com regras são bastante estáveis, mas quando se trata de situações limite, é preciso que uma pessoa assuma a responsabilidade: por exemplo, qual o nível de autorização/signature a conceder, se o endereço do contrato é uma troca de fachada, onde exatamente ocorre o travamento na etapa de cross-chain, e se deve ou não forçar a execução quando há uma súbita subida de slippage. Em suma, os agentes são muito bons a executar, mas não muito a assumir a responsabilidade pelas “consequências”.



Além disso, a comunidade tem discutido recentemente sobre privacidade, mistura de moedas e conformidade, e isso só reforça a minha convicção: quando se trata de identidade, origem dos fundos, com quem se interage, não se deve esperar que um robô faça escolhas morais… Ele apenas amplifica as preferências que você pré-definiu, e também aumenta a responsabilidade. De qualquer forma, o meu hábito atual é: deixar que ele sugira, filtre, simule, mas a etapa crucial ainda é você mesmo pressionar o botão, para evitar que, depois, tenha que se educar com os registros de transações.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar