Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los agentes de IA empresariales necesitan pruebas de estrés, no presentaciones de ventas
Abhishek Saxena, Jefe de Estrategia y Crecimiento, Sentient.
FinTech se mueve rápido. Las noticias están en todas partes, la claridad no.
FinTech Weekly ofrece las historias y eventos clave en un solo lugar.
Haz clic aquí para suscribirte al boletín de FinTech Weekly
Leído por ejecutivos de JP Morgan, Coinbase, BlackRock, Klarna y más.
La IA empresarial tiene un problema de confianza que ninguna cantidad de marketing puede resolver. Las empresas están comenzando a implementar agentes autónomos en entornos de producción donde una sola mala decisión puede desencadenar una violación de cumplimiento, un pago fallido, un error de negociación, una pérdida financiera o una crisis de reputación. Y sin embargo, el estándar de la industria para evaluar si un agente está listo para la producción sigue siendo, efectivamente, una demostración que se ve impresionante en el escenario.
El lanzamiento de NemoClaw de Nvidia esta semana señala cuán rápido se están moviendo los agentes autónomos de la experimentación a los flujos de trabajo empresariales. La plataforma añade controles importantes de seguridad y privacidad, incluyendo sandboxing y límites de políticas. Pero el despliegue seguro no es lo mismo que la preparación para la producción. La pregunta más difícil es si estos sistemas han sido probados para operar de manera confiable bajo ambigüedad, casos límites y presión regulatoria.
Construir un agente que pueda completar una tarea en un entorno controlado es relativamente sencillo. Construir un agente que pueda manejar la ambigüedad, recuperarse de entradas inesperadas, mantener la consistencia a través de miles de interacciones concurrentes, y hacer todo esto sin violar las restricciones regulatorias es un problema de ingeniería muy diferente.
Esa diferencia es donde muchos despliegues empresariales se encuentran con problemas. La brecha entre el rendimiento de la demostración y la fiabilidad de la producción es más amplia de lo que la mayoría de los equipos espera.
Un agente que maneja una consulta de soporte al cliente a la perfección en las pruebas puede alucinar una política de reembolso que no existe cuando se enfrenta a un caso límite que nunca ha visto. Un agente que gestiona flujos de trabajo financieros puede desempeñarse perfectamente con datos históricos pero tomar decisiones catastróficas cuando las condiciones del mercado cambian fuera de su distribución de entrenamiento. Un agente de logística que coordina una cadena de suministro puede tener éxito en simulaciones pero luchar cuando los retrasos del mundo real y las señales conflictivas comienzan a acumularse.
Cualquiera que haya hecho funcionar agentes a través de entornos de pruebas adversariales reconocerá rápidamente estos patrones. Los sistemas funcionan—hasta que encuentran el tipo de ambigüedad y presión que definen las operaciones reales.
Por eso el enfoque actual de la industria en construir más marcos de agentes pierde una pieza crítica del rompecabezas. El verdadero cuello de botella no es cuán rápido las empresas pueden crear agentes. Es cuán confiablemente pueden evaluarlos antes de que esos agentes sean responsables de verdad.
Lo que la IA empresarial necesita es una infraestructura de pruebas de estrés rigurosa y sistemática diseñada específicamente para sistemas autónomos. Eso significa introducir deliberadamente los tipos de entradas que rompen a los agentes en producción. Significa evaluar cómo se comportan los agentes bajo incertidumbre, información conflictiva y casos límite que no aparecen en conjuntos de datos de referencia limpios. Y significa evaluación continua, no una prueba única antes del lanzamiento.
El enfoque de código abierto de NemoClaw es un paso en la dirección correcta porque le da a los desarrolladores visibilidad sobre cómo operan los agentes. No puedes probar adecuadamente una caja negra. Pero la visibilidad por sí sola no es suficiente. La infraestructura de pruebas en sí misma necesita evolucionar junto con los sistemas que evalúa.
El desarrollo de agentes debe suponer que los modos de fallo son inevitables y deben ser revelados temprano. El objetivo no es demostrar que un agente funciona una vez, sino entender cómo se comporta cuando las condiciones se vuelven impredecibles. Esa mentalidad cambia la forma en que se evalúan los agentes, cómo se diseñan los límites y cómo se preparan los sistemas para el despliegue en entornos de alto riesgo.
Las apuestas solo aumentarán a medida que los agentes pasen de tareas aisladas a flujos de trabajo de extremo a extremo. Las empresas ya están explorando agentes que negocian contratos, ejecutan transacciones financieras, coordinan cadenas de suministro y gestionan procesos operativos complejos. Cuando estos sistemas operan a través de múltiples puntos de decisión, el impacto de un solo error puede rápidamente en cascada.
Un agente de soporte al cliente que falla pierde un ticket. Un agente financiero que falla puede perder capital. Un agente operativo que falla puede retrasar toda una línea de producción.
Las empresas que finalmente tendrán éxito con la IA empresarial no serán las que desplegaron agentes primero. Serán las que desplegaron agentes en los que realmente podían confiar.
La confianza no es una característica que se añade al final del desarrollo. Es una disciplina de ingeniería—una que comienza con cómo se prueban los sistemas, cómo se evalúa su comportamiento bajo presión y cómo se entienden sus modos de fallo mucho antes de que toquen una carga de trabajo de producción.
Nvidia está dando a las empresas herramientas poderosas para construir agentes autónomos. La pregunta más difícil—y la que determinará si estos sistemas tienen éxito en el mundo real—es si las organizaciones invierten igualmente en la infraestructura necesaria para demostrar que esos agentes están listos.
Acerca del autor
Abhishek Saxena es el Jefe de Estrategia y Crecimiento en Sentient, una plataforma de IA de código abierto que construye la infraestructura para agentes autónomos de confianza. Anteriormente, Abhishek ocupó roles en Polygon Technology, Apple e InMobi, y tiene un MBA de Harvard Business School.