Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Harness、Junyang Lin、el camino de billones de dólares y la palma de Anthropic
La Infra de la era de los Agentes: las oportunidades y la imaginación son muchísimo mayores que las de “el bogavante”.
En marzo de 2026, la palabra más candente en la industria de la IA no es el nombre de ningún modelo, sino una palabra inglesa que suena completamente ajena a la IA: Harness.
Su significado original es arreos de caballería. Las riendas, la brida, el equipo; todo ese conjunto de cosas que se coloca sobre el caballo.
Si se usa como verbo, su sentido debería ser “dominar”.
No dirías harness a calculator (dominar una calculadora), pero sí dirías harness the wind (dominar el viento), harness a horse (dominar un caballo). Quien usa esta palabra, con intención o sin ella, está reconociendo una cosa: lo que tiene delante no es una herramienta pasiva, sino una entidad con fuerza y autonomía. No la está “usando”; la está “dominando”.
Esta palabra se está convirtiendo en el concepto industrial más central de la era de los agentes de IA.
A su alrededor, está creciendo una capa de infraestructura de escala de billones de dólares. Y quienes redactan las reglas de esta infraestructura ya se asoman.
Harness es la Nueva Infra
Harness, en el contexto de la IA, tiene dos líneas de evolución.
La primera es a nivel retórico. “Harness AI”, como una expresión genérica, circula desde hace tiempo por la industria tecnológica; básicamente significa “la capacidad de dominar la IA”.
La segunda, y más importante, es a nivel técnico. A finales de 2025, Anthropic empezó a usar “harness” para describir el conjunto de infraestructura que se monta alrededor de los agentes de IA: gestión de contexto, llamadas a herramientas, memoria, vallas de seguridad, orquestación. La definición oficial de Claude Agent SDK es “a general-purpose agent harness”.
A principios de 2026, el cofundador de HashiCorp, Mitchell Hashimoto, propuso “AI Harness” como un concepto formal, y “Harness Engineering” como un nuevo campo de práctica de ingeniería se expandió rápidamente.
Pero lo que de verdad hace que esta palabra merezca una atención seria no es su popularidad, sino que describe con precisión una nueva relación que se está formando entre humanos y IA: colaboración asimétrica simbiótica.
Los humanos aportan intención, juicio y dirección. La IA aporta capacidades, velocidad y escala.
Harness reconoce tanto la asimetría de las capacidades como la asimetría de la autoridad, y ambas asimetrías van en direcciones opuestas: las capacidades de la IA pueden superar muy por encima las del que la domina, pero el que domina tiene la decisión final sobre la dirección.
El caballo corre mucho más rápido y tiene mucha más fuerza que el humano, pero ¿a dónde ir? Eso lo decide el humano.
La IA que domina debe ser más fuerte que uno mismo. Esta es, probablemente, la capa más precisa de expresión que eligió Anthropic, con intención o sin ella.
Y la palabra Harness, de hecho, también tiene algo de “Anthropic” (humano), con un matiz centrado en la persona.
Algunos dicen: Harness is the New Datasets.
Esta frase tiene una intuición muy sensible, pero la conclusión no es exacta. Cuando los modelos base convergen, la calidad de Harness sí se convierte en la variable clave que determina si un agente es bueno o malo, igual que la calidad de los datos puede decidir la vida o la muerte de un modelo base.
Pero la forma de existir de Datasets y Harness es fundamentalmente distinta: Datasets ocupa un único lugar en la arquitectura técnica, como entrada en la fase de entrenamiento; en cambio, Harness no es una capa concreta, sino un stack: una combinación de capas.
La ingeniería de contexto y la memoria son la capa de almacenamiento; la conexión de herramientas es la capa de red; la orquestación es la capa de contenedor; las vallas de seguridad son la capa de seguridad; la evaluación es la capa de observabilidad; el empaquetado de habilidades es el middleware. Cada capa puede dar lugar a empresas independientes, estándares y modelos de negocio. Esto es completamente isomórfico con la estructura en stack de la Infra de computación en la nube.
En ese sentido, Harness es la Nueva Infra: no es la infra del preentrenamiento de modelos, sino la infra para construir agentes; una infra que dota al agente de autonomía y, al mismo tiempo, sigue estrictamente las instrucciones humanas, asegura la seguridad y cumple las reglas.
Harness no es en sí mismo un Datasets nuevo, pero el buen funcionamiento de Harness generará datasets buenos para los agentes y establecerá un bucle de datos (data flywheel). Cuando un harness acumula suficientes datos de comportamiento de usuarios y conocimiento del dominio, deja de ser solo un diseño de sistema “enchufable” y empieza a tener atributos de datos: cuanto más se usa, mejor; y cuanto más se usa, más difícil es reemplazarlo.
De aquí se puede derivar una ecuación casi utilizable como definición:
Modelo base + Harness = Agente.
El modelo base proporciona capacidades crudas: razonamiento, generación, comprensión. Pero es estático, pasivo y sin dirección; puede hacerlo todo, así que no es “nada” en particular. Harness proporciona estructura, dirección y restricciones; convierte la infinita posibilidad en acciones finitas y con propósito. En el instante en que se combinan ambos, la IA deja de ser un objeto al que se le pregunta y se convierte en un sujeto que actúa.
Con el mismo caballo, al ponerle distintos arneses, puede tirar de un carro, transportar personas, arar la tierra y competir. El diseño de Harness determina la forma y el uso del agente.
Pitch Deck de Lin Junyang
El 26 de marzo de 2026, el ex director técnico del equipo Qwen, Lin Junyang (Junyang Lin), publicó un texto largo en X titulado: “From ‘Reasoning’ Thinking to ‘Agentic’ Thinking”. En dos días: 700.000 lecturas, 2.800 likes y 677 retweets.
Hace tres semanas, el 4 de marzo, acababa de dejar Alibaba. Tres semanas después, escribió un artículo sistemático de juicio sobre la industria.
El argumento central del artículo es que la IA está pasando de “pensar durante más tiempo” a “pensar para actuar”.
Reasoning Thinking (pensamiento de razonamiento) es, en esencia, un monólogo estático: el modelo genera cada vez cadenas de razonamiento más largas en un espacio cerrado, intentando compensar la falta de interacción con el entorno con más texto. En cambio, Agentic Thinking avanza continuamente la tarea mientras interactúa con el entorno. El objeto de entrenamiento saltó tres niveles: de entrenar el modelo, a entrenar el agente, y a entrenar el sistema.
Esto no es teoría. Lo respalda con sus propias lecciones prácticas en Qwen: combinar los modos thinking (razonamiento) e instruct (instrucciones) es mucho más difícil de lo que uno imagina. Las distribuciones de datos de ambos tipos de comportamiento y los objetivos de optimización se tiran fundamentalmente en direcciones opuestas: instruct busca ser conciso, rápido y cumplir formatos; thinking busca dedicar más tokens a explorar rutas alternativas. Después de que Qwen3 intentó combinarlos, volvió a separarlos en líneas independientes.
Esta lección apunta a una comprensión más profunda: Instruct es el sustituto de Harness de la era anterior de agentes.
Instruct “quema” las normas de comportamiento en los pesos del modelo mediante SFT y RLHF: es como coser las riendas a los músculos del caballo. En la era de pregunta y respuesta, alcanza. Pero al llegar la era de los agentes, el modelo necesita ejecutarse de manera autónoma, llamar herramientas y decidir continuamente; el espacio de acciones explota y no es posible entrenar todas las restricciones en los pesos. El centro de control debe desplazarse del interior del modelo hacia el exterior.
Los límites de capacidad de Instruct fueron superados por el paradigma de agentes; Harness es la evolución inevitable.
En el artículo, Lin Junyang menciona “harness” cuatro veces, con una progresión muy clara:
Desde el “entorno externo donde corre el agente”, hasta “una práctica de ingeniería independiente—harness engineering”, y luego hasta “una parte del objeto de entrenamiento—agent and the harness around it”.
Su artículo demuestra desde el lado del entrenamiento una cosa: Harness no solo es infraestructura en tiempo de ejecución para agentes, sino infraestructura también durante el entrenamiento de agentes.
En el ciclo cerrado de Agentic RL, el agente corre dentro de Harness, el entorno produce señales de retroalimentación y la retroalimentación impulsa la actualización de la estrategia de RL; la estrategia cambia el comportamiento del agente. Si eliminas Harness, no es que el agente se vuelva más lento: es que el entrenamiento no puede ni siquiera arrancar.
Además, él propone con claridad que el mayor cuello de botella de Agentic RL no es el algoritmo ni la arquitectura del modelo, sino la calidad del entorno y la infraestructura para los rollouts. La limitación que frena la evolución del agente está en la capa de Infra.
Gracias, Junyang. Completa para mí la mitad faltante del argumento “Harness es la Nueva Infra”.
Antes afirmamos que Harness es la infraestructura esencial en tiempo de ejecución del agente (infra). Y el artículo de Junyang nos dice que Harness también es la infra en el entrenamiento del agente. En el ciclo cerrado de Agentic RL, el entorno produce señales de retroalimentación, la retroalimentación impulsa la actualización de la estrategia y la estrategia cambia el comportamiento del agente; el comportamiento del agente, a su vez, dispara nuevas retroalimentaciones del entorno.
Un sistema que es indispensable tanto en los extremos de entrenamiento como de inferencia, eso es infra de verdad, es decir, Harness.
Lin Junyang dice en el artículo una frase con mucho significado: “La construcción del entorno está pasando de ser un proyecto secundario a convertirse en una categoría de emprendimiento real”.
“La construcción del entorno” no es equivalente a Harness, sino un subconjunto de Harness, pero un subconjunto importante. “Entorno” corresponde principalmente a la conexión de herramientas y a la retroalimentación de evaluación en la arquitectura de Harness: específicamente el mundo con el que se interactúa al entrenar agentes—el sandbox de ejecución de código, el simulador de navegador, el conjunto de casos de prueba, la capa de simulación de API. Su función central es generar señales de retroalimentación, para que Agentic RL tenga algo que optimizar. Es un poco como el contenedor, el benchmark y Hugging Face para el entrenamiento y la construcción de agentes.
El entorno es el patio de juegos para entrenar agentes; Harness es el equipo completo cuando el agente sale a correr. El patio es parte del equipo, pero no es todo.
Sin embargo, que el ex director técnico de un modelo open source comience a definir por separado una categoría de emprendimiento para uno de los submódulos de Harness es, en sí mismo, una señal: demuestra que este stack ya es suficientemente complejo y suficientemente valioso, y empieza a crecer por capas con entidades comerciales independientes como una auténtica pila de Infra.
Y en un artículo de tono académico, se define un carril de emprendimiento. Si crees que esto aún no es el pitch deck de un emprendimiento de Lin Junyang, entonces no deberías hacer VC.
El carril de emprendimientos de billones de dólares
Si Lin Junyang realmente hiciera infraestructura de entorno para el entrenamiento de agentes—la dirección que él mismo definió como “una categoría de emprendimiento real”—¿qué capa de la “torta” de Harness estaría enfrentando? ¿Y qué tan grande es esta capa?
Dentro de Harness hay una arquitectura multicapa completa que puede descomponerse en siete módulos centrales: ingeniería de contexto, sistema de memoria, conexión de herramientas, empaquetado de habilidades, vallas de seguridad y permisos, evaluación y retroalimentación, orquestación y gestión de estado.
Además de la capa de conexión de herramientas (MCP), en cada capa hay empresas creando.
La capa de contexto y memoria tiene Cognee (financiación de €7,5 millones) e Interloom (financiación semilla de $16,5 millones, con participación de Sequoia).
La capa de conexión de herramientas fue estandarizada por el protocolo MCP—descargas del SDK mensuales: 97 millones; Anthropic, OpenAI, Google, Microsoft y Amazon ya están conectados, y no hay demasiadas startups.
En la capa de seguridad surgió Runlayer ($11 millones, con Khosla liderando), y para vallas de seguridad y cumplimiento: Guardrails AI, Vigilant AI, Runtime, Alter. La evaluación y la observabilidad están en lo más caliente: Arize AI se llevó $70 millones en ronda C; sus clientes incluyen Uber y PepsiCo; Langfuse se convirtió en el estándar de la comunidad open source.
La capa de orquestación presenta un patrón de “tres fuertes”: LangGraph, CrewAI (financiación de $18 millones, con 60% de Fortune 500 usando) y el Microsoft Agent Framework; de esas tres, dos son startups. Y en la capa de empaquetado de Skills, las startups suelen presentar productos de agentes en carriles verticales de industria; su punto de referencia es Harvey—AI legal—valoración de $11.000 millones, financiación acumulada de $1000 millones, ARR de $190 millones; y Abridge—medicina—AI—valoración de $5.300 millones.
La capa de entorno de entrenamiento está en la etapa más temprana: alrededor de 20 compañías en semilla; Wing VC predice que en 2030 se consolidará en 3-5 compañías.
Pero no todos los módulos son buenos carriles.
El criterio central para juzgar si un carril es bueno o malo es: ¿este módulo resuelve un problema de “capacidad del modelo” o un problema de “diseño del sistema”?
Los del primer tipo serán absorbidos por los modelos base: la ventana de contexto se amplía de 128K a 1M y a tamaños aún mayores; las estrategias de compresión ingeniosas de hoy quizá mañana ya no sirvan.
Mientras que los módulos de la capa de diseño del sistema tienen valor duradero—por ejemplo, la conexión de herramientas, que es un problema de “nicho/ecosistema”; las vallas de seguridad para cumplimiento, un problema de regulación; la evaluación, un problema de independencia—y no se pueden disolver solo porque el modelo se vuelva más fuerte.
También sus rutas de salida son completamente distintas. La conexión de herramientas y el empaquetado de habilidades están demasiado cerca del modelo, y las empresas de modelos tienen un incentivo fuerte para absorberlos—Anthropic hace MCP y Skills, OpenAI hace Plugins y GPTs; todo es tragar esas dos capas.
En esos dos frentes, el techo es que serán compradas. Para vallas de seguridad, cumplimiento y evaluación/observabilidad, es lo contrario: naturalmente necesitan independencia de terceros. Los bancos no confiarán en las herramientas de auditoría de cumplimiento de Anthropic por sí mismas, igual que tú no dejarías que el auditado emita su propio informe de auditoría. La independencia no es una estrategia de negocio, sino el valor del producto en sí. El primer tipo es un buen objetivo para una adquisición; el segundo tipo es un buen objetivo para una IPO.
Todo eso pertenece a Harness, la Infra del agente. Entonces, ¿qué tamaño tiene el total del mercado del carril Harness?
De abajo hacia arriba, sumando el espacio de valoración de los siete subcarriles, para 2030 la suma de las valoraciones de startups independientes será de aproximadamente $5000-8000 millones. En la parte de empaquetado de habilidades y conocimiento vertical es donde está el máximo (25.00–35.00 mil millones en dólares), y en vallas de seguridad y cumplimiento es donde crece más rápido (CAGR 65,8%: de $700 millones en 2024 a una previsión de $1099 millones en 2034; cuanto más autónomo sea el agente, más caro será el “arnés/cordaje”). El entorno de entrenamiento está en la etapa más temprana, pero tiene la mayor certeza.
El mercado total de agentes de IA para 2030 se pronostica con ingresos de $50.000-100.000 millones; Harness como capa de Infra representa 40-50%, y al aplicar múltiplos de 10-15x de PS de SaaS/Infra, el espacio de valoración es coherente.
Un carril de emprendimientos de casi un billón de dólares.
Si también se incluyen los ingresos de Harness integrados dentro de las fábricas de modelos, el valor total de la capa de infraestructura Harness está en $2,5-3,8 billones. Aproximadamente equivalente al valor de mercado total de toda la capa de Infra de computación en la nube de hoy.
Entonces volvamos a Lin Junyang: si de verdad entra en el subcarril de infraestructura de entorno de entrenamiento y RL, se enfrentará a un mercado que hoy solo tiene unas 20 empresas en etapa semilla, pero que para 2030 tiene un espacio de valoración de $20.000-50.000 millones. Wing VC predice que este carril terminará consolidándose en 3-5 equipos líderes.
Por su identidad de ex director técnico en Qwen, si está en Silicon Valley, la valoración en ronda semilla podría estar entre $200-500 millones. El mercado no está pagando por la valoración de una compañía, sino por la valoración de la persona. Lin Junyang ya no necesita hacer un BP; ese tuit basta. Y si está en China con fondos en dólares, con una valoración desde $50 millones, $100 millones no es imposible. ¿En RMB? Entonces ya veremos.
La palma de Anthropic
Ahora hay que responder una pregunta verdaderamente importante: de los billones de dólares de infraestructura de Harness, ¿quién está definiendo las reglas?
Veamos estos hechos implacables:
MCP es el estándar de protocolo lanzado por Anthropic. Claude Code es el producto de harness creado por Anthropic, con ingresos anualizados de $2.500 millones. Agent SDK es la puerta de entrada para desarrolladores que construyó Anthropic. El sistema Skills está diseñado por Anthropic. Incluso, cuando la palabra “harness” se puso de moda en el contexto de agentes de IA, el mayor impulsor es Anthropic.
La razón más profunda es el modelo de negocio.
La narrativa central de OpenAI es “el modelo más fuerte”. Sus ingresos provienen principalmente de las suscripciones de ChatGPT. Anthropic no hace multiparámetros ni modelos de mundo, pero cada vez más gente lo considera el modelo más fuerte. El punto de venta de Claude no es quedar primero en benchmarks, sino ser “el modelo más adecuado para flujos de trabajo de agentes”: más confiable, más controlable, y más apto para ejecuciones autónomas de larga duración.
Este posicionamiento significa que la competitividad de Anthropic no proviene solo del modelo, sino de la calidad de toda la pila de Harness alrededor del modelo. Cuanto más completo está cada nivel de Harness, más ancho queda su foso defensivo. La prosperidad del ecosistema Harness equivale directamente al beneficio comercial de Anthropic.
Esto explica por qué OpenAI empezó a intentar construir un ecosistema desde 2023—Plugins, GPTs, GPT Store—pero no se consolidó, mientras que MCP de Anthropic se lanzó a finales de 2024, con un año y medio de retraso, y aun así se volvió el estándar de facto.
La causa fundamental detrás es esta: OpenAI construye un ecosistema de aplicaciones; Anthropic construye un ecosistema de infraestructura.
El GPT Store de OpenAI tiene la lógica de App Store: tengo la mayor base de usuarios; tú vienes a abrir tu tienda aquí. Pero cuando el propio modelo puede hacer de todo, las aplicaciones no tienen tanto sentido. Los GPTs no tienen una muralla de diferenciación, porque la capacidad subyacente y ChatGPT en sí son lo mismo.
Y el MCP de Anthropic no es una tienda de aplicaciones: es una tienda de protocolos. No invita a los desarrolladores a abrir tiendas en Claude; define un estándar de conexión para que todas las herramientas y todos los modelos puedan usarse. Esa es la lógica de HTTP, no la lógica de App Store.
Y cuanto más abierto sea el protocolo, mayor será el control en el ecosistema. Hoy, todo el mundo usa MCP; y como MCP está diseñado por Anthropic, no necesita “encerrar” a usuarios; encierra la mente de los desarrolladores y su cadena de herramientas.
En el nivel de capital. Anthropic y el inversor temprano Menlo Ventures formaron un fondo de $100 millones llamado Anthology Fund: en un año invirtieron en más de 30 startups en la dirección de harness. La estructura es muy inteligente: Menlo pone el dinero; Anthropic no participa en los beneficios económicos del fondo; pero a cada compañía en la que invierten le dan $25.000 en créditos de modelo, y abren que el Chief Product Officer Mike Krieger y la presidenta Daniela Amodei participen en el demo day.
Anthropic no pone ni un centavo, encierra a más de 30 startups en el ecosistema de Claude y obtiene señales de demanda en la frontera. Esto es una opción de bajo costo (costless option).
Pero, ¿lo hemos pensado? En la era de la IA agentic, ¿por qué el ecosistema de protocolos de Anthropic es más importante que el ecosistema de aplicaciones de OpenAI?
Porque el agente no es “una aplicación” en el sentido tradicional. La interfaz de interacción de una App tradicional es fija y limitada—el usuario pide un coche, la App sigue un flujo predefinido para llamar APIs, emparejar conductores y calcular rutas. Un agente es diferente: él mismo decide qué herramientas llamar, en qué orden y cuándo. La interfaz de interacción es infinita y dinámica. Además, los agentes también necesitan colaborar entre sí: el orquestador programa agentes especializados, y los agentes especializados programan subagentes; esto es un problema de coordinación en sistemas distribuidos.
Cuando la interfaz de interacción es fija, puedes conectarte uno por uno; cuando la interfaz de interacción es infinita, solo puedes definir estándares.
TCP/IP permite que cualquier dos computadoras se comuniquen; HTTP permite que cualquier cliente acceda a cualquier servidor; MCP permite que cualquier agente llame cualquier herramienta. La unidad básica de un ecosistema de aplicaciones es “producto”; la unidad básica de un ecosistema de protocolos es “conexión”. En la era agentic, la cantidad y la calidad de las conexiones lo determinan todo.
Todas las startups de Harness están haciendo piruetas hacia adelante. Si Lin Junyang realmente se mete en infraestructura de entorno de entrenamiento, la dirección que él definió personalmente en su artículo como “una categoría de emprendimiento real”, su producto casi con seguridad también tendrá que integrarse en el ecosistema de Claude; o bien construir un ecosistema paralelo en China. Porque Anthropic definió los protocolos, construyó el SDK, sembró el ecosistema con fondos y se ganó la mente de los desarrolladores.
Quizá, solo los emprendedores de agentes en China tienen la posibilidad de escapar de la palma de Anthropic; eso es una fuerza mayor.