Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Harness rompe barreras: más allá del modelo, el terreno de implementación se convierte en el "primer criterio" para la selección de IA empresarial
Según las tendencias actuales, Harness se parece más a una “capa intermedia irreversible”.
Así como un sistema operativo lo es para el hardware, y una base de datos lo es para las aplicaciones, Harness se está convirtiendo en esa capa “de interfaz” entre la IA y el mundo real. Cuando la IA pase de “saber hablar” a “poder hacer tareas”, Harness será la correa que determina hasta qué punto puede correr.
En 2026, el mercado global de IA empresarial ya ha entrado discretamente en el “agua profunda”.
Durante los últimos tres años, las capacidades de los grandes modelos han saltado de nivel a una velocidad casi incontrolable: pasando de asistentes de conversación a generación de código, de creación de contenido a razonamiento complejo; además, el “techo intelectual” del propio modelo se ha ido refrescando constantemente. Hoy en día, los modelos de base generalistas se han convertido en una infraestructura básica, como la electricidad y el agua corriente.
Sin embargo, esto no ha traído alivio a las empresas. Está emergiendo una realidad que contrasta con el progreso tecnológico: cuanto más fuerte es la IA, más difícil y más temen las empresas usarla. Un informe de Deloitte, “Estado de la IA empresarial en 2026”, muestra que, aunque el 80% de las empresas encuestadas afirma haber desplegado herramientas de IA, solo el 15% de las empresas puede lograr aplicaciones a escala y generar un valor comercial significativo.
Justo cuando la industria se sumía en la confusión, cambió el viento.
Durante enero de 2026, un equipo de ingenieros dentro de OpenAl que al principio solo tenía 3 personas partió de un repositorio Git vacío y, en 5 meses, construyó un producto Beta completo con más de 1M de líneas de código. En todo el proceso, no hubo ni una sola línea de código escrita manualmente por humanos. Lo destacable es que el equipo luego se amplió a 7 personas; durante ese periodo se fusionaron alrededor de 1500 solicitudes de extracción, y en promedio cada ingeniero pudo avanzar 3,5 PR al día. A medida que el proceso maduró, la eficiencia de producción siguió mejorando. OpenAI estima que esta forma ahorra aproximadamente 10 veces más tiempo que el desarrollo tradicional de código hecho a mano.
Esto no es solo una mejora en eficiencia, sino una subversión de la definición de “ingeniería de software”. OpenAI nombró esta nueva metodología de:“Ingeniería para dominar” (Harness Engineering).
Este cambio resonó rápidamente en los círculos tecnológicos de más alto nivel. Desde LangChain hasta OpenAI, pasando por Anthropic, un grupo de actores tecnológicos clave trasladó de manera casi simultánea el foco de “capacidad del modelo” a “ingeniería de sistemas”, y se fue convergiendo hacia una nueva fórmula de consenso: Agente = Modelo + Harness.
En este contexto, también surgen algunas preguntas: si cuando todos los principales fabricantes apuestan por Harness, este es solo una “solución de transición” antes de que los grandes modelos alcancen su madurez, o si en realidad se está convirtiendo en el primer paso para que la IA se implemente en las empresas.
¿Por qué todos los principales fabricantes están apostando por Harness?
Primero, veamos un conjunto de datos de una investigación de Gartner. Los datos muestran que, en los proyectos de IA empresarial a nivel global, solo menos del 15% realmente logra aterrizajes de negocios a escala, y que la “insuficiente estabilidad de los agentes en tareas complejas” fue señalada por el 78% de los responsables de IA como la principal barrera para la implementación.
Esta dificultad de aterrizar se ha confirmado repetidamente en los comentarios técnicos de los principales fabricantes.
Microsoft lo dijo sin rodeos: actualmente el desarrollo de Agentes carece de un mecanismo efectivo de trace (seguimiento); una vez que falla una tarea, el desarrollador casi solo puede “adivinar” para depurar;
Anthropic reveló en su documentación técnica dos carencias profundas: una es la ansiedad por contexto; al manejar tareas largas, el modelo va perdiendo la coherencia, e incluso llega a generar una actitud de “desgano por trabajar” al acercarse al límite del contexto, cerrando el trabajo de forma apresurada. La otra es el optimismo ciego: el modelo no se da bien en la autoevaluación de calidad, y los resultados que produce suelen mostrar una confianza excesiva.
Al mismo tiempo, OpenAI emitió una advertencia: en el día de hoy, cuando las colaboraciones de múltiples Agentes y el uso de herramientas son cada vez más frecuentes, los riesgos de seguridad como PromptInjection (inyección de prompts) y la filtración de datos privados se están amplificando sin límite.
Con la suma de estos problemas, en el lado empresarial se forman cuatro consecuencias directas: el efecto es inestable, el riesgo es incontrolable, no se puede responsabilizar el problema, y el ROI no puede demostrarse. Y detrás de todo esto, en realidad no es que “el modelo no sea lo suficientemente inteligente”, sino que las empresas carecen de un sistema tipo “sistema operativo” que permita que la IA funcione de manera continua, confiable y a escala.
Al mirar hacia atrás los últimos tres años, la forma de la IA ha cambiado de manera esencial. La IA de 2022 a 2024 se parecía más a un robot avanzado de preguntas y respuestas. Pero en 2026, la IA por primera vez tiene realmente la capacidad de trabajar de manera continua: puede descomponer tareas, llamar herramientas, ejecutar flujos entre sistemas e incluso, en cierta medida, tomar decisiones de forma autónoma.
Esto es un cambio cualitativo, pero justamente en ese momento los problemas se exponen con mayor claridad. La IA ya no es “un hámster encerrado en una jaula”, sino una fiera que puede correr sin freno por sí misma. Otros pueden montarla y galopar por doquier; pero cuando las empresas se la llevan, a menudo “se rompen la pierna” directamente.
Entonces, toda la industria empezó a reconocer una realidad cruel: el techo de la IA ya no lo determina el modelo, sino “si puedes dominarla”.
En febrero de 2026 apareció un punto de inflexión clave. En un experimento del equipo de LangChain, se descubrió que, al usar el mismo modelo (GPT-5.2-Codex), y sin cambiar los parámetros, solo optimizando Harness, la puntuación del modelo en el test Terminal Bench2.0 saltó de 52,8 a 66,5, y el ranking pasó de Top30 directamente a Top5.
Se puede ver que el modelo no cambió, pero la capacidad sí dio un salto.
Esto se convirtió en una señal fuerte de que lo que la industria realmente necesita no es “una IA más inteligente”, sino un sistema de ingeniería capaz de domesticar la IA y permitirle un aterrizaje suave. Y es precisamente en este contexto que se propuso formalmente Harness Engineering (Ingeniería para dominar), convirtiéndose en la “correa” que permite que la IA funcione de manera continua, confiable y a gran escala, impulsando una nueva esperanza para aterrizar la IA.
Si la esencia de que la IA sea difícil de implementar es que la IA pierde el control, entonces lo que Harness realmente debe hacer es convertir un sistema probabilístico en un sistema de ingeniería.
Desde el principio a nivel fundamental, los grandes modelos son en esencia “generadores de distribuciones de probabilidad”, no sistemas deterministas. Un estudio de 2026 señala que incluso los Agentes que se desempeñan excelentemente en benchmarks de alta puntuación, en ejecuciones repetidas múltiples veces, la tasa de éxito puede bajar del 60% al 25%; su estabilidad está muy por debajo de los requisitos de los sistemas empresariales. Esto significa que la “corrección promedio” del modelo, en los escenarios empresariales, equivale a “no utilizable”.
Así surge el primer problema central: las empresas no pueden saber por qué falla la IA.
Los Agentes tradicionales funcionan como una caja negra: cuando arrojan un error, no se sabe si fue un fallo en la inferencia del modelo, una anomalía en la llamada a herramientas o un timeout del sistema externo. Y en los sistemas empresariales, “la falta de explicabilidad” por sí misma es inaceptable. Precisamente por la ausencia de observabilidad, muchos proyectos de IA se quedan bloqueados en la fase de depuración y no pueden avanzar; en la industria se considera de forma generalizada que la “falta de trazabilidad” es una barrera clave para no poder entrar en entornos de producción. Por eso, el primer paso de Harness no es optimizar el modelo, sino hacer que el proceso sea visible.
Puede registrar cada paso de pensamiento del Agente, los parámetros de las llamadas a herramientas y el contexto, y activar un rollback o intervención humana cuando detecte “bucles lógicos” o “rutas anómalas”, convirtiendo el comportamiento de caja negra en un sistema depurable.
Pero el problema no se limita a “no se ve”. Más grave aún es que, incluso cuando se ve, todo tiende a volverse más caótico. En tareas largas, el modelo genera “ansiedad por contexto”; cuanto más larga la tarea, menos estable es el sistema, y además el modelo tiende a producir instrucciones ilegales o filtraciones de datos.
Dicho de otra forma, la pérdida de control no es algo ocasional, sino que se amplifica exponencialmente con la complejidad. Por lo tanto, la segunda función de Harness es limitar la “carga cognitiva” del modelo. No mete todos los datos de una sola vez en el modelo; en su lugar, con base en los nodos de la tarea, alimenta con precisión “conocimientos necesarios” para mantener la lucidez del modelo.
Sin embargo, incluso controlando la longitud del proceso, hay otro problema más oculto: el modelo no sabe que se equivocó.
En la realidad, muchas empresas no se atreven a activar proyectos de IA en producción porque la autoevaluación del modelo suele ser “optimista de forma ciega”, y las empresas no se atreven a enviar directamente al cliente los resultados generados por la IA.
Por eso, la tercera capa de capacidades de Harness es llamar a otro modelo especializado en “auditoría” para corregir la salida del Agente principal. Pasar de un “sistema de autoevaluación” a un “sistema de evaluación externa”, construyendo la credibilidad de los resultados.
Pero aquí el problema no termina.
Hay que saber que cuando la IA realmente entra en el entorno empresarial, ya no se enfrenta a una sola tarea, sino a un sistema complejo: por ejemplo ERP, CRM, almacenes de datos, plataformas low-code, gateways de API, etc.
Y para que la IA actúe, necesita activar y coordinar cientos de interfaces como ERP, CRM y plataformas low-code. Solo hacer Function Call puede romperse con facilidad. Los datos muestran que más del 60% de los fallos de IA provienen del control descontrolado del alcance de tareas y de problemas de datos; en esencia, todo se reduce a que la “complejidad del sistema” supera la capacidad de carga. Es decir, todos los problemas previos, incluida la caja negra, la pérdida de control y las alucinaciones, se amplifican aún más en la capa de “integración de sistemas”.
Por ello, la función final de Harness es actuar como un adaptador universal, transformando interfaces de datos internas empresariales antiguas y no estandarizadas en protocolos estandarizados legibles para la IA, para que la empresa pueda gestionar de forma unificada las rutas de llamadas, los permisos y el estado.
En resumen, Harness no resuelve el problema de si la IA “puede hacer” algo, sino que permite que la IA sea diseñada, sea controlable, sea evaluable y pueda insertarse en flujos reales del negocio. Las capacidades de IA que antes dependían de salidas probabilísticas quedan encapsuladas en procesos industriales estandarizados, predecibles y auditables, logrando que la IA aterrice realmente en las operaciones empresariales.
¿Harness realmente se convertirá en el nuevo núcleo para que los Agentes se implementen?
En realidad, dentro de la industria ya existía desde hace tiempo controversia sobre esta afirmación.
El bando de los grandes modelos, representado por OpenAI y Anthropic, sostiene que, a medida que mejoran las capacidades de razonamiento del modelo y las de contexto largo, los Agentes del futuro serán cada vez más “coherentes consigo mismos”, y Harness solo sería un “andamiaje” de etapa.
En otras palabras, el bando de los grandes modelos cree que mientras el modelo sea suficientemente fuerte, él mismo puede tirar del carro y hacer el trabajo. Ahora el caballo todavía necesita arneses complejos porque aún no es tan inteligente. Cuando en el futuro el caballo evolucione a “cualquier caballo” (un caballo “mágico”), esas estructuras de madera y correas complejas serán un estorbo y solo impedirán que el caballo despliegue todo su potencial.
Pero la otra corriente, viene más del lado de la ingeniería y el aterrizaje.
El fundador de LangChain, Harrison Chase, enfatizó públicamente que las mejoras de rendimiento a menudo provienen de la “optimización de sistemas externos, no de la actualización del modelo”; Satya Nadella de Microsoft ha mencionado varias veces que, para que la IA entre en los sistemas centrales de las empresas, debe contar con “observabilidad, control y límites de seguridad”.
La lógica detrás de esto es que, por muy fuerte que sea el modelo, solo es una “unidad de capacidad”, no un “sistema de producción”. Incluso si el caballo es fuerte, sigue siendo fuerza de bestia: sin carrocería y ruedas, no hay dónde colocar la carga. Sin correas, el caballo corre descontrolado. En las empresas, la carga es “los datos del negocio” y el destino es “completar la tarea”. Sin esta estructura ingenieril precisa, la IA nunca podrá aterrizar de manera segura y precisa.
Dicho de otra forma, el modelo determina “qué se puede hacer”, mientras que Harness determina “si se puede lograr de manera estable”.
Desde esta perspectiva, la diferencia entre ambos bandos en realidad corresponde a dos problemas distintos: uno responde “¿dónde está el límite de la IA?”, y el otro responde “¿puede usarse la IA?”.
Pero por ahora, nadie está discutiendo ya sobre quién sustituye a quién, sino que todos están empezando a armar “golpes combinados”.
Por un lado, los fabricantes de modelos empiezan a extenderse activamente hacia la capa de Harness. OpenAI lanzó Agents SDK y Codex, integrando directamente las capacidades del modelo en el entorno de ejecución; Anthropic lanzó MCP y Agent Skills, convirtiendo en productos las capacidades de gestión del contexto y del flujo. Esto indica una tendencia: incluso el bando más decidido de “modelo”, empieza a complementar capacidades a nivel de sistema, porque solo el modelo ya no puede sostener la ejecución de tareas complejas.
Por otro lado, los marcos de ingeniería siguen “aprovechando el beneficio” de los modelos. Después de todo, marcos como LangChain, AutoGen y CrewAI, en esencia, dependen de modelos más potentes para elevar el techo de capacidad.
Así, poco a poco se forma un panorama de fusión e interconexión. Los fabricantes de modelos empiezan a construir sistemas; los fabricantes de sistemas dependen de los modelos; y ambos comienzan a penetrar los límites de la capacidad del otro.
Esta fusión también impulsa formas industriales más segmentadas. Algunas empresas se enfocan en la “capa de traducción”, convirtiendo datos internos empresariales complejos y no estructurados (PDF, Excel, bases de datos) en contextos que el modelo pueda entender; algunas hacen “Harness orientado a industrias”, por ejemplo, en escenarios como derecho y finanzas, fijando los flujos de tareas como plantillas, de modo que el usuario solo necesita introducir materiales y el sistema ejecute automáticamente el análisis. También hay otro tipo de empresas que hacen colaboración entre múltiples modelos, haciendo que Harness funcione como “comandante” y despache diferentes modelos según el tipo de tarea: por ejemplo, que GPT se encargue de generar contenido, que Claude se encargue del código y que un modelo local procese datos sensibles.
La característica común de estas formas es que ya no tratan al modelo como un “producto”, sino como un “componente”. Pero si miramos aún más profundo, esta controversia también tiene claramente un matiz de “postura”. Las empresas de modelos ponen más énfasis en la importancia del modelo, porque es su activo central;
Las empresas de marcos ponen énfasis en Harness, porque ahí está su valor; y desde el lado de las empresas, se enfocan más en “datos y procesos”, porque son esos los factores que finalmente determinan el ROI.
Dicho de otra forma, no es solo una disputa de caminos tecnológicos, sino también una proyección de intereses comerciales. En cierto grado, cada parte está reforzando la capa que le resulta más favorable.
Por eso, volviendo a la pregunta original: ¿Harness es una solución de transición, o un nuevo núcleo?
Según las tendencias actuales, se parece más a una “capa intermedia irreversible”. Así como un sistema operativo lo es para el hardware, y una base de datos lo es para las aplicaciones, Harness se está convirtiendo en esa capa “de interfaz” entre la IA y el mundo real. Cuando la IA pasa de “saber hablar” a “poder hacer tareas”, Harness es esa correa que determina hasta dónde puede correr.
Noticias masivas, análisis preciso: todo en la app de Sina Finance