Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Los modelos de código abierto están alcanzando, pero ¿qué es exactamente lo que están logrando?
El código abierto va detrás, pero hay que decir claramente hasta dónde ha alcanzado
Z.ai publica GLM-5.1, y Modal se pone casi al mismo tiempo en línea para el hospedaje. Dos cosas superpuestas a la vez hacen que resulte más interesante que ver solo una de ellas.
El modelo es un MoE de 754B (parámetros activos de 40B). SWE-Bench Pro obtiene 58.4%; en tareas de codificación está bastante a la par con GPT-5.4 y Opus 4.6; puede ejecutarse durante 8 horas completas en modo autónomo, con iteraciones de varios miles sin caerse. BenchLM está actualmente en el puesto 10, y KernelBench muestra que es 3.6 veces más rápido que las propuestas de código abierto anteriores.
La reacción en redes sociales está dividida: Bindu Reddy dice que es una prueba de que el código abierto ha alcanzado al cerrado; Victor Taelin, en cambio, duda de que “500+ tokens/s” sea realista en precisión FP8, y que un despliegue real quizá solo tenga alrededor de 200 tps. Ambas partes tienen algo de razón: el modelo realmente rinde bien, pero las cifras de marketing son optimistas.
Esta vez, la publicación de código abierto difiere de la de antes en algunos puntos:
MarkTechPost y Constellation interpretan esto como que la “brecha de 6 meses” entre código abierto y cerrado se está cerrando. En el sentido de agentes de codificación, es muy probable que ese juicio sea válido. Z.ai usa una licencia MIT y la afinación secundaria ya está en camino.
Pero no dejes que eso te haga pensar que el código abierto ha invertido por completo la situación. Los modelos propietarios siguen liderando en alineación de seguridad y en inferencia multimodal en gran medida. Lo que se está erosionando es el foso del escenario de agentes de codificación: las empresas valoran más el costo de despliegue en este tipo de tareas, y no son tan sensibles a esa diferencia marginal de capacidad.
Más importante que el modelo es la infraestructura
Modal se basa en clústeres B200; usa SGLang para desplegar GLM-5.1, y en escenarios de interacción puede funcionar a 30–75 tokens/s. Estos detalles de ingeniería que suenan aburridos son en realidad lo verdaderamente importante.
Z.ai muestra en VectorDBBench un rendimiento de 21.5k QPS (tras optimización mediante 600 iteraciones). Este nivel de desempeño necesita la elasticidad de escalado automático sin servidor de Modal para entregarse de manera estable; solo el modelo, por sí mismo, no llega a esa magnitud.
Esto también cambia la forma en que miramos el “lanzamiento de modelos”: ya no son eventos aislados, sino parte de una estrategia de ecosistema. La combinación de “modelo de código abierto + infraestructura occidental” se convierte en una cobertura frente al bloqueo de una sola API de laboratorio.
Sobre los límites de GLM-5.1: el rendimiento de codificación alcanza 94.6% del de Opus, pero la brecha en inferencia aún existe. Un perfil de capacidades más “equilibrado” es más significativo para casos de uso específicos.
De cara al futuro: la facturación de Z.ai creció 131% año contra año el año pasado. Si el costo de inferencia baja a menos de $0.50 por cada millón de tokens, el código abierto podría capturar en el plazo de un año entre 30–50% de la cuota de despliegue de agentes de codificación. Los cambios en políticas de Estados Unidos podrían traer perturbaciones, pero el riesgo actual parece no ser alto.
Conclusión: esta combinación de golpes confirma una cosa: en el campo vertical de agentes de codificación, las capacidades del código abierto ya están prácticamente a la par. Los beneficiados son quienes primero construyen una arquitectura “independiente de infraestructura”, y los inversionistas que apuestan por plataformas de hospedaje. Anthropic enfrenta presión por precios. Las empresas aún profundamente atadas a APIs de código cerrado están pagando un sobreprecio por capacidades cada vez más cercanas.
Importancia: Alta
Categoría: Lanzamiento de modelos, colaboración, código abierto
Juicio: Para el segmento de agentes de codificación, todavía es una ventana relativamente temprana. Los que se benefician primero son dos tipos de personas: (1) Builders e integradores que construyen flujos de trabajo independientes de infraestructura; (2) quienes apuestan por capital que impulsa el hospedaje sin servidor y las plataformas de inferencia. Los traders de corto plazo, a menos que puedan capturar el ritmo de recortes de precios y migración de tráfico, tendrán ventajas limitadas; los tenedores de largo plazo necesitan vigilar si la curva de costos realmente baja a menos de $0.50 por cada millón de tokens, para verificar si la cuota puede saltar.