Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Alibaba lanza Qianwen 3.5, con un rendimiento comparable a Gemini 3, y un precio de Token que es solo 1/18 de su valor
A finales del Año del Serpiente, llega el más potente modelo Qwen de Alibaba.
El 16 de febrero, en la víspera del Año Nuevo, Alibaba open sourcea la nueva generación del gran modelo Qwen3.5-Plus. Qwen 3.5 se preentrena en datos combinados de texto y visión, logrando avances en la modalidad multicanal nativa, destacándose en evaluaciones de razonamiento, programación, agentes inteligentes y otros benchmarks, además de obtener varios récords en evaluaciones de comprensión visual.
El avance central de Qwen3.5 reside en resolver sistemáticamente desde la arquitectura el dilema “eficiencia-precisión” de los grandes modelos. Mediante mecanismos de atención híbridos, el modelo puede enfocar dinámicamente textos largos, eliminando el desperdicio de recursos en cálculos completos; mientras que la arquitectura de MoE extremadamente dispersa, con menos del 5% de parámetros activos, moviliza los 3970 millones de parámetros totales, reduciendo al mínimo el coste de inferencia.
Junto con la mejora en eficiencia, la capacidad nativa de predicción multicanal permite que el modelo pase de “palabra por palabra” a “planificación en múltiples pasos”, duplicando casi la velocidad de respuesta. Las optimizaciones de estabilidad en la atención y otros aspectos, premiadas con el mejor artículo en NeurIPS por el equipo de Tongyi, proporcionan una garantía sistémica para estas innovaciones radicales, asegurando que el entrenamiento a gran escala sea realmente “estable”. Estas cuatro tecnologías apuntan a un objetivo común: usar menos recursos computacionales para despertar una inteligencia más potente.
La app de Qwen y la versión de PC ya integran inmediatamente el modelo Qwen3.5-Plus. Los desarrolladores pueden descargar el nuevo modelo en la comunidad Mota y HuggingFace, o acceder a la API directamente a través de Alibaba Cloud Balian.
Rendimiento comparable a Gemini 3 Pro, con excelente relación calidad-precio
Según Alibaba, el nuevo gran modelo Qwen3.5-Plus de código abierto de Alibaba alcanza un rendimiento comparable a Gemini 3 Pro, liderando los modelos de código abierto más potentes del mundo. Qwen 3.5 logra una renovación completa en la arquitectura subyacente, con una versión Qwen3.5-Plus que tiene 3970 millones de parámetros totales, con solo 170 millones activos, superando en rendimiento a modelos de más de un billón de parámetros como Qwen3-Max, con un 60% menos de uso de memoria en despliegue y una eficiencia de inferencia mucho mayor, alcanzando hasta 19 veces el rendimiento máximo.
En cuanto a precio, la API de Qwen3.5-Plus cuesta solo 0.8 yuanes por millón de tokens, una octava parte de Gemini 3 Pro.
Cuatro avances tecnológicos: desde innovación arquitectónica hasta estabilidad sistémica
Las innovaciones clave de Qwen3.5 se reflejan en cuatro dimensiones. Primero, el mecanismo de atención híbrido, que permite al modelo “leer con detalle o resumir según convenga”. En modelos tradicionales, al procesar textos largos, cada token requiere atención completa a todo el contexto, lo que aumenta exponencialmente con la longitud, siendo un cuello de botella para capacidades de contexto extendido. Qwen3.5 distribuye dinámicamente los recursos de atención, enfocándose en información importante y resumiendo la secundaria, logrando una mejora simultánea en eficiencia y precisión.
En segundo lugar, la arquitectura MoE extremadamente dispersa. Los modelos densos activan todos los parámetros en cada inferencia, lo que aumenta los costes computacionales. La innovación de MoE consiste en activar solo las “especialistas” relevantes según la entrada. Qwen3.5 lleva esto al extremo: con 3970 millones de parámetros totales y solo 170 millones activos, logra usar menos del 5% del poder de cálculo para acceder a todo su conocimiento, reduciendo drásticamente los costes de inferencia.
El tercer avance es la capacidad nativa de predicción multicanal. Los modelos tradicionales generan token por token, limitando la eficiencia. Qwen3.5, en su entrenamiento, aprende a predecir múltiples posiciones futuras en conjunto, casi duplicando la velocidad de inferencia. Esta “planificación en múltiples pasos” en generación de textos largos, completado de código y diálogos multi-turno, ofrece respuestas casi instantáneas, mejorando la experiencia del usuario.
Por último, la optimización de estabilidad en el entrenamiento a nivel sistémico, que garantiza que estas innovaciones funcionen de manera estable en entrenamiento a gran escala. Por ejemplo, el mecanismo de atención con control de atención, premiado en NeurIPS 2025, incorpora un “interruptor inteligente” en la salida de la capa de atención, que regula el flujo de información como una llave de agua, evitando que la información útil se pierda o que la irrelevante se amplifique, mejorando la precisión y la generalización en contextos largos. Además, mejoras en normalización y en la inicialización de rutas de expertos aseguran la estabilidad en diferentes etapas del entrenamiento, garantizando un funcionamiento robusto en escalas masivas.
De “respuesta” a “operación”: una nueva dimensión en interacción humano-máquina
A diferencia de los chatbots tradicionales, Qwen3.5 ya no se limita a responder. Su capacidad de agente visual le permite “ver” pantallas de teléfonos y computadoras, entender con precisión la posición y función de elementos en la interfaz, y ejecutar acciones de forma autónoma. En demostraciones oficiales, el usuario solo necesita dar instrucciones en lenguaje natural, y el modelo puede completar tareas en aplicaciones móviles o gestionar datos y automatizar procesos complejos en PC, llevando la colaboración humano-máquina a un nivel completamente nuevo.
Esta capacidad se basa en su avanzada tecnología de comprensión visual. Qwen3.5 puede localizar con precisión elementos en la pantalla, identificar botones, cuadros de texto, íconos y sus funciones, y simular clics, desplazamientos y entradas. Mediante codificación visual y análisis semántico del contenido de la pantalla, la IA adquiere habilidades “visual” y “manual” para interactuar con el mundo digital. Los usuarios pueden desplegarlo localmente o en la nube, equilibrando eficiencia y control de datos.
La colaboración entre aplicaciones es otra innovación clave. En las demostraciones, el modelo puede extraer información de correos, leer datos en tablas y enviar mensajes a través de aplicaciones de mensajería, rompiendo las barreras de aislamiento entre sistemas y automatizando procesos en múltiples aplicaciones. La idea de un “agente usuario” que colabora de manera eficiente y legal con diferentes programas, crea una experiencia digital sin fisuras. La evolución de herramientas individuales a asistentes digitales omnipotentes abre nuevas posibilidades para la colaboración humano-máquina.
6 minutos y 48 segundos, de un boceto a un código: ¿Qué tan potente es la “lectura de mente” de Qwen3.5?
Lo más sorprendente es la capacidad de programación visual de Qwen3.5. En un video de demostración, el usuario dibuja un boceto de una página web, y en 6 minutos y 48 segundos, el modelo lo convierte en código web funcional y bien estructurado, incluso seleccionando automáticamente imágenes de alta calidad. Esta “transformación de boceto a producto” demuestra una comprensión profunda de la información visual: identifica círculos como botones, líneas como divisores, infiere la intención del diseño, entiende “esto es la barra de navegación” o “esto es la zona de contenido”, y genera lógica en HTML, CSS y JavaScript.
Al profundizar en los detalles técnicos, se revela que esta capacidad proviene de la arquitectura multimodal nativa de Qwen3.5. A diferencia de enfoques que combinan “codificador visual + modelo de lenguaje” de forma simple, Qwen3.5 integra texto y visión desde el entrenamiento, logrando una fusión profunda que permite entender tanto la posición en píxeles como conceptos semánticos abstractos. Datos muestran que su ventana de contexto se extiende a 1 millón de tokens, pudiendo procesar contenidos de hasta dos horas de video, permitiendo analizar películas completas y extraer narrativas, relaciones y estilos visuales en documentos o código. Esta memoria “panorámica” multimodal supera ampliamente la capacidad de procesamiento de información de un humano en una sola pasada.