Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
GLM-5.1 pontuações impressionantes, mas na prática: as barreiras de hardware e as diferenças de validação ainda persistem
Demonstração e implantação real são coisas diferentes
O GLM-5.1 da Z.ai aposta na “substituição de código aberto” em tarefas de longa duração, com muita alarvidade, mas a atenção está a correr à frente da sua utilidade prática. A versão oficial diz que é o primeiro em código aberto e o terceiro a nível mundial em SWE-Bench Pro (58,4%), Terminal-Bench (63,5%) e NL2Repo (42,7%), e que no SWE-Bench supera ainda o GPT-5.4 em 57,7%. Mas testes independentes contam outra história — Claude Opus 4.6 consegue 75–80% em subconjuntos verificáveis. Os benchmarks escolhidos pela Z.ai parecem mais uma forma de explorar pontos fortes e evitar fraquezas, não permitindo concluir se o modelo é estável em ambiente de produção.
No Twitter, há demonstrações por todo o lado do GLM-5.1 em ferramentas como Claude Code. Mas o que ninguém menciona é: os requisitos de hardware são muito elevados. A maioria dos programadores independentes não consegue executá-lo, o que levanta uma questão embaraçosa: um modelo que exige capacidade informática ao nível empresarial — o que é que “código aberto” significa, afinal?
A barreira de hardware obriga a escolhas difíceis
O debate em torno do GLM-5.1 está dividido em dois extremos, o que era expectável. Engenheiros de IA fazem demonstrações de iteração orientada para a resolução; investigadores da DeepMind apontam dificuldades no seu manuseamento de dependências entre ficheiros em conversas longas.
A Z.ai claramente pende mais para inferência de elevada relação custo-benefício — suporta chips Huawei Ascend e é compatível com vLLM — mas os 754B parâmetros exigem, pelo menos, quantização FP8. Se és um laboratório no país com fundos suficientes, não há problema; caso contrário, pode não ser.
O financiamento também está a contar histórias. A participação da Prosperity7 implica uma cobertura de risco geopolítico, mas em 2025 foi incluída na lista de entidades restritas, limitando a expansão internacional da Z.ai. Parece mais um “campeão local” do que um “desafiante global”.
Linha de fundo: Se colocas todas as tuas fichas na “substituição do código aberto”, agora pode ainda ser demasiado cedo. Os modelos fechados continuam a ter vantagem em fiabilidade. Para empresas: usa pesos abertos para poupar dinheiro sempre que possível, mas mantém APIs fechadas em ambiente de produção. Para investidores: a orientação da Z.ai para a Ásia merece ser observada, mas desde que estejas de perto a seguir a geopolítica da capacidade informática.
Importância: Alta
Classificação: Lançamento de Modelo, Insight Técnico, Impacto no Mercado
Veredito: Quanto à afirmação de que “o código aberto irá substituir totalmente os modelos fechados”, neste momento continua a ser uma fase demasiado precoce; no curto prazo, as vantagens estão mais nos fornecedores de APIs fechadas e nos laboratórios de topo com abundância de capacidade informática. A utilidade varia consoante o papel: