Recentemente, vi o Agente de IA indo para a cadeia "fazer seu próprio trabalho", na verdade parece bastante com um estagiário recém-chegado: consegue fazer o trabalho, mas quem leva a culpa ainda é o humano. Assinaturas automáticas, investimentos periódicos, movimentações de fundos, tudo isso funciona, mas quando chega a hora de alterar parâmetros, trocar estratégias, lidar com exceções (como contratos retornando erros estranhos, escopo de autorização pouco claro), ainda preciso confirmar manualmente, senão ao acordar no dia seguinte, a carteira vira "bens públicos" e fica constrangedor.



E quanto à governança, o Agente pode ajudar a navegar pelos fóruns, resumir propostas, até simular resultados de votação, mas no final, prefiro votar pessoalmente, afinal, divergências não são calculadas, são discutidas até serem resolvidas... Ainda confio na "intuição humana, que às vezes é mais confiável que o modelo".

A propósito, uma reclamação sobre a narrativa modular e a camada de DAO, os desenvolvedores ficam com os olhos brilhando ao falar disso, enquanto os usuários basicamente pensam: "Desde que vocês estejam felizes". Minha regra de respaldo agora é uma só: antes de gastar dinheiro, alguém precisa entender para onde ele vai. Por enquanto, é isso.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar