a16z: ¿Falta infraestructura en la economía de agentes de IA? Los cinco principales apoyos de la cadena de bloques

AI agentes (AI agents) pasan rápidamente de ser copilotos a convertirse en actores económicos, mucho más rápido que el desarrollo de la infraestructura que los rodea.

Aunque los agentes ya pueden ejecutar tareas y realizar transacciones, todavía carecen de formas estandarizadas en diferentes entornos para demostrar quiénes son, qué autoridad tienen y cómo reciben compensación. La identidad no puede migrar entre entornos, por defecto aún no soportan pagos programables, y la colaboración sigue ocurriendo solo en islas aisladas.

La blockchain resuelve estos problemas a nivel de infraestructura. Los libros públicos proporcionan recibos auditables para cada transacción. Las carteras otorgan a los agentes identidades portátiles. Los stablecoins se convierten en otra capa de liquidación. Estos componentes no son del futuro — ya están disponibles hoy y pueden ayudar a los agentes a operar como verdaderos actores económicos sin permisos.

1. Identidad para no-humanos

(Identity for non-humans)

El cuello de botella de la economía de agentes ahora es la identidad, no la inteligencia.

Solo en la industria de servicios financieros, las identidades no humanas — sistemas de trading automatizado, motores de riesgo, modelos de fraude — ya superan en aproximadamente 100 veces a los empleados humanos. Con la implementación masiva de marcos modernos de agentes (modelos de lenguaje de gran escala con llamadas a herramientas, flujos de trabajo autónomos, orquestación de múltiples agentes), esta proporción seguirá creciendo en todos los sectores.

Sin embargo, estos agentes aún están en un estado de “sin cuenta bancaria”. Pueden interactuar con sistemas financieros, pero no de forma portável, verificable o confiable por defecto. Les falta un método estandarizado para demostrar sus permisos, operar independientemente en múltiples plataformas o asumir responsabilidad por sus acciones.

Lo que falta es una capa de identidad universal — equivalente a un certificado SSL para agentes, que pueda coordinarse de forma estandarizada entre plataformas. Aunque ya existen algunos esfuerzos destacados, estos son fragmentados: por un lado, pilas verticales con prioridad en moneda fiduciaria; por otro, estándares abiertos nativos de criptografía (como x402 y propuestas emergentes de identidad de agentes); y también extensiones en marcos de desarrollo, como MCP (Protocolo de Contexto de Modelo), que intenta conectar las identidades a nivel de aplicación.

Aún no existe un método ampliamente adoptado, interoperable, que permita a un agente demostrar a otro quién representa, qué puede hacer y cómo recibe compensación.

Este es el núcleo de la idea de KYA (Know Your Agent, Conoce a tu agente). Al igual que los humanos dependen del historial crediticio y KYC (Know Your Customer, Conoce a tu cliente), los agentes necesitarán credenciales con firma criptográfica que vinculen al agente con su delegador, permisos, restricciones y reputación. La blockchain ofrece una capa de coordinación neutral: identidades portátiles, carteras programables y pruebas verificables que pueden interpretarse en chats, APIs y mercados.

Ya hemos visto prácticas iniciales: registro de agentes en la cadena, carteras nativas que usan USDC, estándares ERC para “agentes de confianza mínima”, y kits de herramientas para desarrolladores que combinan identidad con pagos embebidos y control de fraude.

Pero, antes de que surjan estándares universales de identidad, los comerciantes seguirán bloqueando agentes tras firewalls.

2. Gobernar sistemas operados por IA

(Governing AI-run systems)

Los agentes comienzan a operar sistemas reales, lo que trae nuevas preguntas sobre “quién tiene el control real”. Imagina una comunidad o empresa donde un sistema de IA coordina recursos clave — ya sea distribuyendo capital o gestionando cadenas de suministro. Incluso si las personas votan sobre cambios en políticas, si la capa subyacente de IA está controlada por un solo proveedor (que puede hacer push de actualizaciones, ajustar restricciones o sobreescribir decisiones), ese poder es débil. La capa de gobernanza formal puede ser descentralizada, pero la operación sigue siendo centralizada; quien controla el modelo, controla el resultado final.

Cuando los agentes asumen roles de gobernanza, introducen una capa de dependencia adicional. En teoría, esto puede hacer que la democracia directa sea más factible: cada uno puede tener un representante IA que ayude a entender propuestas complejas, modelar trade-offs y votar según preferencias expresadas. Pero esta visión solo se realiza si los agentes son responsables ante quienes representan, pueden migrar entre proveedores, y técnicamente cumplen con las instrucciones humanas. De lo contrario, el sistema parece democrático en la superficie, pero en realidad está dominado por comportamientos de modelos opacos, sin control real.

Si los agentes actuales están construidos con unos pocos modelos base, necesitamos demostrar que actúan en interés de sus usuarios y no de las empresas que los crean. Probablemente esto requiera garantías criptográficas en múltiples niveles: (1) ¿De qué datos de entrenamiento, ajuste fino o aprendizaje reforzado proviene cada instancia del modelo? (2) ¿Cuáles son los prompts e instrucciones exactas que siguen? (3) ¿Qué registros de acciones en el mundo real tienen? (4) Garantías confiables de que, una vez desplegados, los proveedores no puedan modificar sus instrucciones o reentrenarlos. Sin estas garantías, la gobernanza de agentes se reduce a una gestión por quienes controlan los pesos del modelo.

Aquí es donde la criptografía resulta especialmente útil. Si las decisiones colectivas se registran en la cadena y se ejecutan automáticamente, los sistemas de IA pueden ser obligados a cumplir con resultados verificados. Si los agentes tienen identidades criptográficas y registros de ejecución transparentes, se puede verificar si cumplen con los límites establecidos. Y si la capa de IA es propiedad del usuario y portable, en lugar de estar atada a una plataforma, ninguna empresa podrá cambiar las reglas mediante actualizaciones del modelo.

En última instancia, gobernar sistemas de IA es un desafío de infraestructura, no solo de política. La autoridad real reside en construir garantías ejecutables robustas dentro del propio sistema.

3. Rellenar vacíos en los pagos en la economía nativa de IA

(Filling gaps in traditional payment systems for AI-native businesses)

Los agentes de IA comienzan a comprar cosas — scraping web, sesiones en navegador, generación de imágenes — y los stablecoins emergen como una capa de liquidación alternativa para estas transacciones. Al mismo tiempo, se forma un nuevo mercado dirigido a agentes. Por ejemplo, el mercado MPP de Stripe y Tempo agrega más de 60 servicios diseñados específicamente para agentes de IA. En su primera semana, procesó más de 34,000 transacciones, con tarifas tan bajas como 0.003 dólares, y los stablecoins son uno de los métodos de pago predeterminados.

Lo que diferencia estos servicios es la forma en que se accede a ellos. Sin páginas de checkout. El agente lee esquemas, envía solicitudes, paga y recibe información en una sola transacción. Representan una nueva categoría de “comerciantes sin cabeza”: solo un servidor, un conjunto de endpoints, y un precio por llamada. Sin interfaz frontal — ni tienda física ni equipo de ventas.

Las formas de pago que hacen posible esto ya están en marcha. x402 de Coinbase y MPP usan métodos diferentes, pero ambos integran pagos directamente en solicitudes HTTP. Visa también está expandiendo pagos con tarjeta en una dirección similar, ofreciendo una CLI que permite a los desarrolladores pagar desde la terminal, y los comerciantes reciben stablecoins en backend de inmediato.

Los datos aún están en una etapa temprana. Tras filtrar actividades no naturales (como el manipular volumen), x402 procesa aproximadamente 1.6 millones de dólares en pagos impulsados por agentes al mes, mucho menos que los 24 millones reportados recientemente por Bloomberg (según datos de x402.org). Pero la infraestructura circundante se expande rápidamente: Stripe, Cloudflare, Vercel y Google ya integran x402 en sus plataformas.

Las herramientas para desarrolladores representan una gran oportunidad: a medida que “vibe coding” (programación en ambiente) amplía quién puede crear software, crece también el mercado para resolver problemas de nuevos desarrolladores. Empresas como Merit Systems están construyendo AgentCash, una billetera CLI y mercado que conecta tanto con MPP como con x402. Estos productos permiten a los agentes usar un saldo único en stablecoins para comprar datos, herramientas y capacidades. Así, los agentes de ventas pueden enriquecer sus prospectos llamando a endpoints que consultan datos de Apollo, Google Maps y Whitepages, sin salir de la línea de comandos.

Este tipo de actividad comercial de agente a agente (A2A) tiende a migrar hacia soluciones criptográficas (y nuevas soluciones con tarjetas) por varias razones: primero, la suscripción, ya que cuando un proveedor de pagos se instala en un comerciante, asume el riesgo del comerciante. Un comerciante sin sitio web ni entidad legal, sin un procesador tradicional, difícilmente será asegurado. Segundo, los stablecoins en redes abiertas son sin permisos y programables: cualquier desarrollador puede habilitar pagos en un terminal sin integrar un procesador de pagos ni firmar un acuerdo comercial.

Hemos visto este patrón antes. Cada cambio en el modelo de negocio genera una categoría de nuevos comerciantes que los sistemas existentes no pueden atender inicialmente. Las empresas que construyen esta infraestructura no apuestan solo a los 1.6 millones de dólares mensuales; apuestan a que, cuando los agentes sean compradores predeterminados, esa cifra crecerá.

4. Revalorizar la confianza en una economía basada en agentes

(Repricing trust in an agentic economy)

Durante 300,000 años, la cognición ha sido la limitación del progreso humano. Hoy, la IA lleva el coste marginal de ejecución a cero. Cuando los recursos escasos se vuelven abundantes, la restricción se traslada. Cuando la inteligencia se vuelve barata, ¿qué se vuelve caro? La verificación.

En la economía de agentes, la verdadera limitación de escalabilidad es nuestra capacidad biológica limitada para auditar y responsabilizar decisiones automatizadas. La capacidad de procesamiento de los agentes ya supera con creces la supervisión humana. Dado que la supervisión es costosa y los fallos se detectan con retraso, los mercados tienden a ignorarla intencionadamente. “Sincronización humana en tiempo real” se vuelve rápidamente una imposibilidad física.

Pero desplegar agentes no verificados introduce riesgos compuestos. Los sistemas optimizan implacablemente las intenciones de los “agentes”, desviándose silenciosamente de las intenciones humanas, creando una ilusión de productividad que oculta la deuda de adoptar IA a gran escala. Para confiar en nuestra economía a máquinas, la confianza ya no puede depender solo de inspección humana: debe estar codificada en la arquitectura misma.

Cuando cualquiera puede generar contenido gratis, lo más importante es la fuente verificable — saber de dónde proviene y si se puede confiar en ella. La blockchain, las pruebas en cadena y los sistemas de identidad digital descentralizados cambian los límites de una economía que puede desplegarse de forma segura. Ya no tratas a la IA como una caja negra, sino que obtienes un historial claro y auditable.

A medida que más agentes de IA comienzan a comerciar entre sí, la liquidación y la verificación se vuelven complementarias. Los sistemas de flujo de fondos — como stablecoins y contratos inteligentes — también pueden portar recibos criptográficos que muestran quién hizo qué y quién es responsable si algo sale mal.

La ventaja comparativa de los humanos se traslada hacia arriba: detectar errores menores, definir estrategias y asumir responsabilidades cuando algo falla. La ventaja sostenible pertenece a quienes pueden verificar, respaldar en criptografía y responsabilizarse de sus resultados.

El crecimiento sin verificación será, con el tiempo, una deuda acumulada.

5. Preservar el control del usuario

(Preserving user control)

Durante décadas, nuevas capas de abstracción han definido cómo interactúan los usuarios con la tecnología. Los lenguajes de programación abstraen el código máquina. La interfaz gráfica reemplaza a la línea de comandos, luego las aplicaciones móviles y las APIs. Cada cambio oculta más complejidad subyacente, atrapando a los usuarios en ellas.

En el mundo de los agentes, los usuarios especifican resultados, no acciones; el sistema decide cómo lograrlos. Los agentes no solo abstraen cómo se completan tareas, sino también quién las realiza. Los usuarios establecen parámetros iniciales y luego dejan que el sistema funcione solo. El rol del usuario pasa de interactuar a supervisar; por defecto, el agente está “activado” a menos que intervenga.

A medida que los usuarios delegan más tareas a los agentes, surgen nuevos riesgos: entradas ambiguas pueden hacer que el agente actúe con suposiciones erróneas, sin que el usuario lo note; fallos pueden no reportarse, sin caminos claros de diagnóstico; una sola aprobación puede desencadenar flujos de trabajo múltiples e imprevistos.

Aquí es donde la criptografía entra en juego. La criptografía ha buscado minimizar la confianza ciega. A medida que los usuarios delegan decisiones, los sistemas de agentes hacen que este problema sea aún más agudo, elevando el umbral para un diseño riguroso — estableciendo límites claros, mejorando la visibilidad y forzando garantías fuertes sobre lo que el sistema puede hacer.

Nuevas herramientas nativas de criptografía están surgiendo. Marcos de delegación limitados — como el Delegation Toolkit de MetaMask, AgentKit de Coinbase y billeteras de agentes, y AgentCash de Merit Systems — permiten a los usuarios definir en contratos inteligentes qué puede y qué no puede hacer un agente. Arquitecturas basadas en intenciones, como NEAR Intents (que desde el Q4 2024 ha gestionado más de 15 mil millones de dólares en volumen DEX), permiten a los usuarios establecer resultados esperados — por ejemplo, “puente de tokens y staking” — sin especificar cómo lograrlo.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado