Últimamente, he estado observando la interacción de los Agentes de IA con la cadena, y aunque suena bastante animado, en realidad me preocupo más cuando se pone en marcha: qué pasos aún necesitan que las personas tomen la responsabilidad. Por ejemplo, en la autorización, si no entiendes el contrato, mejor no arriesgarse; en cuanto a los límites de permisos, si pueden autorizar indefinidamente, si pueden ser actualizados o modificados, esas “últimas revisiones” todavía no me atrevo a dejar que las maneje el modelo; y también en cosas como cross-chain o cambiar rutas, el Agente es muy bueno encontrando la mejor ruta, pero ¿quién asume la responsabilidad si en un pool desconocido o en un puente nuevo hay deslizamientos de precio o bloqueos…? En definitiva, cuando ocurre un error, debes poder rastrear en qué paso exactamente fallaste.



Sobre la apuesta y el sistema de seguridad compartida con beneficios acumulados, que últimamente han sido criticados como “repetitivos”, también lo entiendo: si el Agente solo se fija en el porcentaje anualizado, puede enmascarar los riesgos en varias capas, y al final te lleva a un montón de lugares con alta correlación. De todos modos, mi enfoque actual es: la automatización está bien, pero las firmas clave, los límites y las rutas de salida deben ser confirmados por uno mismo, aunque sea más lento. …Ya me pongo a trabajar.
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado