Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
CITIC Securities: Se espera que el próximo modelo de próxima generación de DeepSeek continúe con la estrategia de modelos de código abierto de alta relación rendimiento-precio
CITIC Securities research indica que desde 2026, los proveedores chinos de modelos de lenguaje de gran tamaño se han centrado en la mejora de capacidades de agentes (Agent) y de código, y están publicando nuevos modelos de manera competitiva. Se espera que los próximos nuevos modelos de la próxima generación de DeepSeek continúen la ruta de modelos abiertos con alta relación calidad-precio, logrando en capacidades funciones de memoria más potentes y el procesamiento de contextos extremadamente largos; al perfeccionar las capacidades de código y de Agent, y a la vez subsanar las deficiencias en multimodalidad, aportarán nuevas oportunidades de inversión en las direcciones de fabricantes de modelos, aplicaciones de IA e infraestructura base de IA.
1、Fabricantes de modelos: se espera que los nuevos modelos de la próxima generación de DeepSeek colaboren con otros modelos nacionales, impulsando que la IA de China acelere su camino hacia el mundo; al mismo tiempo, la formación del modelo avanzará un paso más para reducir costos, y los tokens más baratos impulsarán en general el aumento de las llamadas a la API de modelos de gran tamaño en el mundo. 2、Aplicaciones de IA: la igualdad de acceso a los modelos ayuda a aliviar la ansiedad del mercado provocada por la narrativa de contradicción entre modelos y aplicaciones, favoreciendo el despliegue de agentes de IA en miles de industrias y beneficiando a las empresas de aplicaciones de IA que cuentan con barreras; 3、Infraestructura base de IA: la reducción de costos trae crecimiento en el volumen de uso, haciendo que AI Infra se beneficie; la infraestructura de IA nacional y los modelos nacionales van en la misma dirección.
El texto completo es el siguiente
Computación|DeepSeek: perspectivas del modelo de la próxima generación
Desde 2026, los proveedores chinos de modelos de lenguaje de gran tamaño se han centrado en mejoras en capacidades de agentes (Agent) y de código, publicando nuevos modelos de manera competitiva. Consideramos que los próximos modelos de la próxima generación de DeepSeek tienen la posibilidad de continuar la ruta de modelos abiertos de alta relación calidad-precio; en capacidades, lograrán funciones de memoria más potentes y el procesamiento de contextos extremadamente largos; al perfeccionar las capacidades de código y de Agent, y al mismo tiempo subsanar las deficiencias en multimodalidad, traerán nuevas oportunidades de inversión en las direcciones de fabricantes de modelos, aplicaciones de IA e infraestructura base de IA.
▍ Código, Agent y multimodalidad nativa: la dirección de actualización de los modelos de gran tamaño a nivel global.
En el campo de la programación con IA, las mejoras en los marcos de entrenamiento, la adopción de repositorios de código completos y trayectorias de ingeniería como datos de entrenamiento, y la introducción de cadenas de pensamiento más profundas con ejecución de múltiples pasos y auto-reparación, han dado lugar a que el Coding con IA pase de herramientas para completar código a agentes inteligentes autónomos a nivel de proyecto. Se espera que Harness Engineer haga que los técnicos pasen de ser ingenieros de código a convertirse en gestores de agentes que permiten que la IA despliegue su máximo potencial. En el ámbito de clústeres de múltiples agentes, el producto a nivel fenómeno OpenClaw demuestra plenamente el potencial del sistema de múltiples agentes; empresas nacionales como Zhipu, MiniMax, Tencent, Kimi, etc., han lanzado productos “tipo langosta”, liberando la productividad de los empleados digitales. En el ámbito de la multimodalidad nativa, la arquitectura de multimodalidad nativa ya se ha convertido en una dirección dominante; la codificación de incrustación híbrida ha logrado avances rápidos, y los modelos nacionales aún requieren avances en eslabones clave como la interacción en tiempo real entre audio y video, así como el razonamiento continuo entre modalidades.
▍ Modelos de gran tamaño nacionales: iteraciones y actualizaciones intensivas, avance continuo de capacidades.
1)MiniMax: la capacidad de código sigue mejorando. En la prueba M2.7 SWE-Pro obtiene 56.22%, superando a Gemini 3.1 Pro; en el escenario de entrega completa de proyectos extremo a extremo, en la prueba VIBE-Pro, obtiene 55.6%, a la par de Claude Opus 4.6, y el entendimiento de la lógica operativa de los sistemas de software se refuerza aún más. Además, los modelos de la serie M2 participan en el entrenamiento de M2.7 en escenarios como RL, logrando que el modelo itere de manera auto.
2)Zhipu: GLM-5 introduce DSA y una arquitectura “Slime” desarrollada internamente; puede completar de forma autónoma planificación y ejecución de largo plazo de tipo Agentic, reconstrucción del backend y depuración profunda, etc., mediante una intervención humana extremadamente limitada, tareas de ingeniería del sistema. En herramientas de llamada y ejecución de tareas de múltiples pasos (MCP-Atlas 67.8%), capacidad de red y comprensión de información (Browse Comp 89.7%), está cerca o incluso supera el nivel de modelos punteros en el extranjero.
3)Kimi: Kimi 2.5 introdujo capacidades visuales para descomponer automáticamente la lógica de interacción, reproducir código, y lanzó un nuevo modo de clúster de agentes. En los conjuntos de pruebas de aplicaciones de agentes inteligentes como HLE-Full, BrowseComp y DeepSearchQA, obtuvo puntuaciones equivalentes a las de GPT-5.2, Claude 4.5 Opus y Gemini 3 Pro. Moonshoot utiliza una estrategia de reducción de precios; el precio de la API, frente a la tarifa de K2 Turbo, se reduce en más del 30%.
4)Xiaomi: en los conjuntos de pruebas que evalúan la capacidad de agentes al llamar modelos, como ClawEval y t2-bench, el Xiaomi MiMo-V2-Pro se acerca e incluso supera a parte de los principales modelos líderes en el extranjero. Su versión interna de prueba inicial se lanzó en OpenRouter con el código anónimo de Hunter Alpha; durante el periodo de lanzamiento, en varios días logró encabezar el ranking diario de volumen de llamadas. Creemos que la base de modelos de gran tamaño ayudará a potenciar todo el ecosistema de personas y vehículos y el hogar en Xiaomi, logrando un salto en las capacidades de IA.
▍ Perspectiva de DeepSeek: continúe la ruta de alta relación calidad-precio, perfeccione capacidades de texto largo, código, Agent y multimodalidad.
DeepSeek publicó en enero de 2026 el DeepSeek V3.2, que adopta una arquitectura de atención dispersa (DSA) + expertos mixtos (MoE), logrando mayor eficiencia y reducción de costos en el entrenamiento y la inferencia; los precios por token de entrada/salida caen 60%/75% respectivamente. Al mismo tiempo, las puntuaciones en benchmarks de capacidades de código y de múltiples Agent mejoran de manera significativa. En combinación con la dirección de evolución de los modelos DeepSeek y el artículo sobre el módulo Engram con la participación de Liang Wenfeng, consideramos que nuevos modelos de próxima generación como DeepSeek V4.0 pueden integrar Engram en la arquitectura madura DSA+MoE, logrando una disminución exponencial del cómputo en la capa de atención dentro de la arquitectura Transformer mediante el almacenamiento jerárquico de información clave y de uso frecuente. De esta forma, se puede lograr el procesamiento de contextos extremadamente largos, y al mismo tiempo se mejora la eficiencia del modelo, se perfeccionan las capacidades de código y Agent y se cubren las deficiencias en multimodalidad.
▍ Factores de riesgo:
El desarrollo de la tecnología central de IA y la expansión de aplicaciones no alcanzan lo esperado, la reducción de costos de cómputo no alcanza lo esperado, el uso inadecuado de la IA causa un impacto social grave, riesgos de seguridad de datos, riesgos de seguridad de la información, y la intensificación de la competencia en la industria.
▍ Estrategia de inversión: recomendamos prestar atención a las siguientes tres líneas principales de inversión.
1)Fabricantes de modelos: se espera que los nuevos modelos de la próxima generación de DeepSeek, junto con otros modelos nacionales, impulsen que la IA de China acelere su camino hacia el mundo; al mismo tiempo, el entrenamiento del modelo avanzará un paso más para reducir costos, y los tokens más baratos impulsarán en general el aumento del volumen de llamadas a la API de modelos de gran tamaño en el mundo.
2)Aplicaciones de IA: la igualdad de acceso a los modelos ayuda a aliviar la ansiedad del mercado provocada por la narrativa de contradicción entre modelos y aplicaciones, contribuye al despliegue de agentes de IA en miles de industrias y beneficia a las empresas de aplicaciones de IA con barreras;
3)Infraestructura base de IA: la reducción de costos trae crecimiento del volumen de uso, haciendo que AI Infra se beneficie; la infraestructura de IA nacional y los modelos nacionales van en la misma dirección.
(Procedencia: Primera Finanzas)