Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
CITIC Securities: A próxima geração do novo modelo DeepSeek deve continuar na linha de modelos de código aberto de alto desempenho e bom custo-benefício
O relatório de pesquisa do Citic Securities aponta que, desde 2026, os fabricantes chineses de modelos de grande dimensão têm-se concentrado na atualização das capacidades de Agent e de código, lançando em concorrência novos modelos. Prevê-se que o próximo modelo de nova geração da DeepSeek, prestes a ser lançado, venha a manter a rota de modelos open source com elevada relação custo-eficácia, alcançando capacidades mais fortes de memória e tratamento de contextos ultra longos; ao aprimorar as capacidades de código e de Agent, e ao mesmo tempo colmatar as deficiências de multimodalidade, trará novas oportunidades de investimento nas direções de fabricante do modelo, aplicações de IA e infraestruturas base de IA.
1、Fabricante do modelo: espera-se que o novo modelo de geração da DeepSeek venha a colaborar com outros modelos nacionais, impulsionando a aceleração da IA chinesa rumo ao mundo; simultaneamente, a formação do modelo dá mais um passo para reduzir custos, e os tokens mais baratos conduzem ao aumento global do volume total de chamadas da API de modelos de grande dimensão. 2、Aplicações de IA: a equidade do modelo ajuda a atenuar a ansiedade do mercado face ao discurso contraditório entre modelos e aplicações, apoiando a implementação de AI Agents em centenas de setores, beneficiando as empresas de aplicações de IA com barreiras; 3、Infraestrutura base de IA: a redução de custos traz o aumento do consumo, fazendo com que a AI Infra beneficie; a AI Infra nacional e os modelos nacionais seguem em direção um ao outro.
O texto completo é o seguinte
Computação|DeepSeek: Perspetivas para a próxima geração de modelos
Desde 2026, os fabricantes chineses de modelos de grande dimensão têm-se concentrado na atualização das capacidades de Agent e de código, lançando em concorrência novos modelos. Consideramos que o próximo modelo de nova geração da DeepSeek, prestes a ser lançado, poderá manter a rota de modelos open source com elevada relação custo-eficácia, alcançando, em termos de capacidade, funções de memória mais fortes e tratamento de contextos ultra longos; ao aprimorar as capacidades de código e de Agent, e simultaneamente colmatar as deficiências de multimodalidade, trará novas oportunidades de investimento nas direções de fabricante do modelo, aplicações de IA e infraestruturas base de IA.
▍ Código, Agent e multimodalidade nativa: direção de atualização dos modelos de grande dimensão globais.
No domínio da programação com IA, com a atualização dos frameworks de treino, a adoção de repositórios completos de código e de percursos de engenharia como dados de treino, e a introdução de cadeias de pensamento mais profundas com execução em múltiplos passos e autorreparação, foi criado o salto da Coding com IA, saindo das ferramentas de completar código para agentes inteligentes autónomos ao nível de projeto. O Harness Engineer poderá levar os profissionais técnicos a passarem do papel de engenheiros de código para gestores de Agent que fazem com que a IA desempenhe o máximo de eficiência. No domínio de clusters de múltiplos Agents, o produto de nível fenómeno OpenClaw demonstra plenamente o potencial de sistemas de múltiplos Agents; empresas nacionais como Zhipu, MiniMax, Tencent, Kimi, entre outras, lançaram produtos “semelhantes a lagostins”, libertando a produtividade dos trabalhadores digitais. No domínio de multimodalidade nativa, a arquitetura de multimodalidade nativa já se tornou a direção principal; a codificação com incorporação híbrida tem avançado rapidamente, mas os modelos nacionais ainda precisam de grandes avanços em elos-chave como a interação em tempo real de áudio e vídeo e a inferência contínua transmodal.
▍ Modelos de grande dimensão nacionais: iteração e atualização intensivas, avanço contínuo de capacidades.
1)MiniMax: a capacidade de código é ainda mais atualizada; no teste M2.7 SWE-Pro, a pontuação foi de 56,22%, ultrapassando o Gemini 3.1 Pro; no cenário de entrega completa fim-a-fim de projetos no teste VIBE-Pro, a pontuação foi de 55,6%, comparável ao Claude Opus 4.6, com uma compreensão ainda mais forte da lógica de execução de sistemas de software. Além disso, os modelos da série M2 participaram no treino M2.7 em cenários como RL, permitindo a autoriteração do modelo.
2)Zhipu: o GLM-5 introduz DSA e a arquitetura “Slime” desenvolvida internamente; consegue, com uma intervenção manual mínima, concluir de forma autónoma tarefas de engenharia de sistemas como planeamento e execução de longo curso agentico, reestruturação do backend e depuração profunda. As capacidades em chamadas de ferramentas e execução de tarefas de múltiplos passos (MCP-Atlas 67,8%), pesquisa em rede e compreensão de informação (Browse Comp 89,7%) aproximam-se ou mesmo excedem o nível dos modelos líderes no exterior.
3)Kimi: o Kimi 2.5 introduziu capacidades visuais para decompor automaticamente a lógica de interação, reproduzir código, e lançou um novo modo de cluster de Agents. Nos conjuntos de testes de aplicações de agentes inteligentes como HLE-Full, BrowseComp e DeepSearchQA, obteve pontuações comparáveis às do GPT-5.2, Claude 4.5 Opus e Gemini 3 Pro. A Moonshoot adotou uma estratégia de redução de preços: o preço da API baixou mais de 30% em comparação com a tabela de preços do K2 Turbo.
4)Xiaomi: o Xiaomi MiMo-V2-Pro, em conjuntos de testes de avaliação de capacidades de chamadas de Agents do modelo, como ClawEval e t2-bench, está próximo ou até mesmo à frente de parte dos modelos líderes no exterior. As suas versões internas iniciais de teste foram publicadas na OpenRouter sob o código anónimo Hunter Alpha; durante o período de publicação, por vários dias consecutivos, atingiu o topo do ranking diário do volume de chamadas. Consideramos que a base de modelos de grande dimensão permitirá à Xiaomi capacitar todo o ecossistema de pessoas, carros e casa, alcançando um salto nas capacidades de IA.
▍ Prospetiva da DeepSeek: manter a rota de elevada relação custo-eficácia, apurar as capacidades de longos textos, código, Agent e multimodalidade.
A DeepSeek publicou, em janeiro de 26, o DeepSeek V3.2, que utiliza a arquitetura de atenção esparsa (DSA) + especialistas mistos (MoE), alcançando aumento de eficiência e redução de custos no treino e na inferência; as cotações de tokens de entrada/saída diminuíram 60%/75%, respetivamente. Em simultâneo, as pontuações em Benchmarks das capacidades de código e de múltiplos Agents melhoraram significativamente. Com base nas direções de evolução do modelo da DeepSeek e no artigo do módulo Engram assinado com a participação de Liang Wenfeng, consideramos que novos modelos de próxima geração como o DeepSeek V4.0 poderão integrar o Engram na arquitetura já madura de DSA+MoE; ao realizar armazenamento em camadas de informações-chave e de uso frequente, consegue-se uma diminuição exponencial do volume de computação nas camadas de atenção da arquitetura Transformer. Assim, é possível tratar contextos ultra longos, e, ao melhorar a eficiência do modelo, também apurar as capacidades de código e de Agent, colmatando as deficiências de multimodalidade.
▍ Fatores de risco:
O desenvolvimento da tecnologia central de IA e a expansão das aplicações não atingem o esperado, a redução de custos da capacidade computacional não atinge o esperado, a utilização inadequada da IA causa impactos sociais graves, risco de segurança de dados, risco de segurança da informação e agravamento da concorrência na indústria.
▍ Estratégia de investimento: recomendamos prestar atenção às seguintes três linhas principais de investimento.
1)Fabricante do modelo: espera-se que o novo modelo de geração da DeepSeek venha a colaborar com outros modelos nacionais, impulsionando a aceleração da IA chinesa rumo ao mundo; simultaneamente, o treino do modelo avança mais um passo para reduzir custos, e os tokens mais baratos impulsionam um aumento global do volume total de chamadas da API dos modelos de grande dimensão.
2)Aplicações de IA: a equidade do modelo ajuda a aliviar a ansiedade do mercado face ao discurso contraditório entre modelos e aplicações, apoiando a implementação de AI Agents em centenas de setores, beneficiando as empresas de aplicações de IA com barreiras;
3)Infraestrutura base de IA: a redução de custos traz o aumento do consumo, fazendo com que a AI Infra beneficie; a AI Infra nacional e os modelos nacionais seguem em direção um ao outro.
(Fonte do artigo: Yicai)