Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
CITIC Securities: A próxima geração do novo modelo DeepSeek deve continuar na linha de modelos de código aberto de alto desempenho e bom custo-benefício
O relatório de investigação da CICC (CITIC Securities) indica que, desde 2026, as empresas chinesas de modelos de IA de larga escala têm-se concentrado na actualização da capacidade de Agents e de código, lançando em concorrência novos modelos. Prevemos que o próximo modelo de próxima geração da DeepSeek, que está prestes a ser lançado, deverá dar continuidade à linha de modelos de código aberto com elevada relação custo-benefício, alcançando capacidades mais fortes de memória e processamento de contexto extremamente longo. Ao mesmo tempo que se aperfeiçoam as capacidades de código e de Agents, serão também colmatadas as fragilidades a nível de multimodalidade, trazendo novas oportunidades de investimento nas direcções de fabricantes de modelos, aplicações de IA e infra-estruturas base de IA.
1、Fabricante de modelos: espera-se que a próxima geração de modelos da DeepSeek avance em conjunto com outros modelos nacionais, impulsionando a aceleração da IA da China para o mundo. Em simultâneo, o treino do modelo avança mais um passo na redução de custos: tokens mais baratos impulsionam, de forma global, o aumento do volume de chamadas da API de modelos de larga escala a nível mundial. 2、Aplicações de IA: a igualdade de acesso ao modelo ajuda a aliviar a ansiedade do mercado face à narrativa de contradição entre modelos e aplicações, promovendo a implementação de AI Agents em todas as áreas. É favorável às empresas de aplicações de IA com barreiras; 3、Infra-estruturas base de IA: a redução de custos traz crescimento no uso, fazendo com que a AI Infra seja beneficiada. A Infra de IA nacional e os modelos nacionais avançam em direcções coincidentes.
Segue o texto completo
Computadores|DeepSeek: Perspectivas para a próxima geração de modelos
Desde 2026, as empresas chinesas de modelos de IA de larga escala têm-se concentrado na actualização das capacidades de Agents e de código, lançando em concorrência novos modelos. Prevemos que o próximo modelo de próxima geração da DeepSeek, que está prestes a ser lançado, deverá dar continuidade à linha de modelos de código aberto com elevada relação custo-benefício, alcançando capacidades mais fortes de memória e processamento de contexto extremamente longo. Ao mesmo tempo que se aperfeiçoam as capacidades de código e de Agents, serão também colmatadas as fragilidades a nível de multimodalidade, trazendo novas oportunidades de investimento nas direcções de fabricantes de modelos, aplicações de IA e infra-estruturas base de IA.
▍ Código, Agents e multimodalidade nativa: direcção de actualização dos modelos de IA de larga escala a nível global.
No domínio da programação com IA, a actualização dos frameworks de treino, a adopção de repositórios completos de código e do histórico de engenharia como dados de treino, e a introdução de cadeias de pensamento mais profundas com execução em múltiplos passos e auto-reparação conduziram a que o AI Coding evoluísse de uma ferramenta de complemento de código para um agente inteligente autónomo a nível de projecto. O Harness Engineer tem potencial para levar os profissionais técnicos a passarem de engenheiros de código para gestores de Agents, permitindo que a IA desempenhe a máxima eficácia. No domínio de clusters com múltiplos Agents, o produto ao nível de fenómeno OpenClaw demonstra plenamente o potencial dos sistemas de múltiplos Agents; empresas nacionais como Zhipu, MiniMax, Tencent, Kimi, entre outras, também lançaram produtos “semelhantes a lagosta”, libertando a produtividade dos empregados digitais. Na área de multimodalidade nativa, a arquitectura de multimodalidade nativa já se tornou uma direcção principal. A codificação com embeddings híbridos tem uma突破 rápida, mas os modelos nacionais ainda carecem de avanços em etapas-chave como interacção em tempo real de áudio e vídeo e raciocínio contínuo entre modalidades.
▍ Modelos de IA nacionais: iterações e actualizações densas, capacidades continuam a ultrapassar limites.
1)MiniMax: a capacidade de código é ainda mais melhorada. No teste M2.7 SWE-Pro, a pontuação foi de 56,22%, ultrapassando o Gemini 3.1 Pro. No cenário de entrega de projecto completo de ponta a ponta no teste VIBE-Pro, a pontuação foi de 55,6%, equiparável à do Claude Opus 4.6. A compreensão da lógica de execução dos sistemas de software foi ainda reforçada. Além disso, os modelos da série M2 participam, em cenários como RL, no processo de treino do M2.7, permitindo a auto-iteração do modelo.
2)Zhipu: o GLM-5 introduz o DSA e a arquitectura proprietária “Slime”. Esta permite completar, com intervenção artificial mínima, tarefas de engenharia de sistemas como planeamento e execução de longa duração agentic, reestruturação do backend e depuração profunda. Em capacidades de chamadas de ferramentas e execução de tarefas em múltiplos passos (MCP-Atlas 67,8%), recuperação em rede e compreensão de informação (Browse Comp 89,7%), aproxima-se e até ultrapassa o nível dos modelos líderes no estrangeiro.
3)Kimi: o Kimi 2.5 introduziu capacidades visuais para decompor automaticamente a lógica de interacção, reproduzir código e, em seguida, lançou um novo modo de cluster de Agents. Nos conjuntos de testes de aplicações de agentes inteligentes, como HLE-Full, BrowseComp e DeepSearchQA, obteve pontuações comparáveis às do GPT-5.2, Claude 4.5 Opus e Gemini 3 Pro. A Moonshoot adoptou uma estratégia de redução de preços; o preço da API reduziu mais de 30% face ao preço de K2 Turbo.
4)Xiaomi: o Xiaomi MiMo-V2-Pro, em conjuntos de testes como ClawEval e t2-bench, em que se mede a capacidade de chamada de agentes dos modelos, está próximo ou até à frente de alguns dos principais modelos estrangeiros. Na sua versão interna de testes inicial, com um código anónimo chamado Hunter Alpha, foi lançado no OpenRouter. Durante o período de lançamento, passou vários dias no topo do ranking diário de volume de chamadas. Achamos que a base dos grandes modelos capacitará a Xiaomi em todo o ecossistema de carros e de casa, permitindo um salto nas capacidades de IA.
▍ Perspectiva da DeepSeek: manter a rota de elevada relação custo-benefício, aperfeiçoando capacidades de textos longos, código, Agents e multimodalidade.
A DeepSeek lançou, em Janeiro de 26, o DeepSeek V3.2 com uma arquitectura de atenção esparsa (DSA) + especialistas mistos (MoE), que realiza uma optimização na eficiência e redução de custos para treino e inferência. A taxa de preços de tokens de entrada/saída diminuiu 60%/75%, respectivamente. Em simultâneo, as pontuações em benchmarks de código e de capacidades de múltiplos Agents aumentaram de forma significativa. Combinando a direcção de evolução dos modelos DeepSeek e o artigo do módulo Engram com a participação de Liang Wenfeng como signatário, consideramos que novos modelos de próxima geração, como o DeepSeek V4.0, poderão integrar o Engram na já madura arquitectura DSA+MoE. Ao implementar armazenamento em camadas para informações-chave e frequentemente usadas, será reduzida de forma exponencial a carga de computação das camadas de atenção na arquitectura Transformer, permitindo assim o processamento de contextos extremamente longos. Ao mesmo tempo em que se melhora a eficiência do modelo, aperfeiçoam-se as capacidades de código e de Agents e colmata-se a fraqueza em multimodalidade.
▍ Factores de risco:
O desenvolvimento de tecnologias centrais de IA e a expansão das aplicações ficam aquém do esperado; a redução de custos de capacidade de computação fica aquém do esperado; o uso inadequado de IA causa impactos sociais graves; riscos de segurança de dados; riscos de segurança da informação; intensificação da concorrência na indústria.
▍ Estratégia de investimento: sugerimos acompanhar as seguintes três linhas principais de investimento.
1)Fabricante de modelos: espera-se que a próxima geração de modelos da DeepSeek avance em conjunto com outros modelos nacionais, impulsionando a aceleração da IA da China para o mundo. Em simultâneo, o treino do modelo avança mais um passo na redução de custos: tokens mais baratos impulsionam, de forma global, o aumento do volume de chamadas da API de modelos de larga escala a nível mundial.
2)Aplicações de IA: a igualdade de acesso ao modelo ajuda a aliviar a ansiedade do mercado face à narrativa de contradição entre modelos e aplicações, promovendo a implementação de AI Agents em todas as áreas. É favorável às empresas de aplicações de IA com barreiras;
3)Infra-estruturas base de IA: a redução de custos traz crescimento no uso, fazendo com que a AI Infra seja beneficiada. A Infra de IA nacional e os modelos nacionais avançam em direcções coincidentes.
(Fonte: Primeiro Finança)