Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Fórum Zhongguancun | Os principais nomes do setor de IA Yang Zhilin, Zhang Peng, Xia Lixue e Luo Fuli discutiram o quê?
Jornalista do Diário Económico da China: Li Jing, Pequim
A 27 de março, durante o Fórum Anual de 2026 de Zhongguancun, no encontro anual do sector, talentos de topo oriundos dos grandes modelos de IA e das infraestruturas de IA fundamentais na China concentraram-se num painel redondo.
Este painel redondo foi moderado pelo fundador de Mian Zhiyan, Yang Zhilin; contou ainda com a participação do CEO da Zhipu Huazhang, Zhang Peng, do cofundador e CEO da Wuwen Qiong, Xia Lixue, da responsável pelos grandes modelos da Xiaomi MiMo, Luo Fuli, bem como da professora assistente da Universidade de Hong Kong, mentora de doutorandos, e responsável pela equipa Nanobot, Huang Chao.
O repórter do China Business News observou que alguns talentos técnicos provenientes do sector de IA não fizeram cumprimentos cerimoniosos durante as conversas; os temas abrangeram desde o enorme abalo que a “Lagosta (OpenClaw)” provocou na indústria, até as correntes subterrâneas da evolução do ecossistema open source; desde a ansiedade perante o aumento explosivo dos custos de inferência até a reconfiguração do poder computacional na era dos Agent.
Nessa colisão de ideias, não só revelaram o caminho evolutivo dos grandes modelos nos próximos 12 meses, de “falar por conversa” para “fazer trabalho”, como também lançaram aquela questão que deixou todos simultaneamente entusiasmados e ansiosos: quando a utilização de Token chegar a uma explosão de cem vezes, estaremos preparados?
Falar da “Lagosta”: os Agent reconfiguram a interação homem-máquina
O painel começou e o tema centrou-se na “Lagosta”, que tem estado a dominar as redes recentemente. Não é apenas uma atualização de produto; é também vista como uma linha divisória para as aplicações de IA.
Sobre esta vaga de Agent, Zhang Peng considera que o seu núcleo reside em fazer a IA evoluir de “simples conversa” para “trabalho verdadeiramente prático”.
Ele apontou que a “Lagosta” coloca exigências extremamente elevadas às capacidades do modelo: o modelo precisa de conseguir pensar e planear durante longos períodos, bem como lidar com a capacidade de processar enormes volumes de contexto. Isto levou diretamente à estratégia de reajuste de preços dos modelos de inferência GLM recentemente adotada pela Zhipu.
“Porque, ao fazer trabalho complexo, os custos de inferência sobem de forma exponencial; o regresso à lógica normal do valor comercial é um caminho indispensável para o desenvolvimento saudável da indústria”, respondeu Zhang Peng.
Xia Lixue revelou que, desde o início deste ano, quando a “Lagosta” explodiu em popularidade, a quantidade de Token processada pela sua empresa aumentou quase uma vez a cada duas semanas, com um crescimento acumulado de 10 vezes — uma velocidade de explosão que só voltou a ocorrer no período da popularização da utilização de dados de telemóveis 3G.
Xia Lixue acredita que, no passado, a infraestrutura de cloud foi concebida para “engenheiros humanos”, ao passo que, na era dos Agent, o que é necessário é uma infraestrutura concebida para “IA”. Para descrever esse desfasamento, ele recorreu a uma comparação entre “ao nível de minutos” e “ao nível de milissegundos”: os humanos iniciam tarefas ao nível de minutos, enquanto o pensamento dos Agent e o arranque das tarefas ocorre ao nível de milissegundos.
“Por conseguinte, a infraestruturas futura deve ter uma eficiência semelhante à de uma fábrica de Token; e até evoluir para um agente que seja capaz de se autoevoluir e de se autotransformar.” Previu Xia Lixue.
Luo Fuli considera que o maior valor do OpenClaw está em “ser open source”, o que favorece a participação profunda da comunidade. Ele eleva muito o limite de modelos fechados de segundo nível na China: em quase todos os cenários, a taxa de conclusão da tarefa já está muito próxima da dos modelos mais recentes; ao mesmo tempo, garante a margem inferior através do sistema de Skill. Além disso, o open source acendeu o entusiasmo da comunidade pela exploração da camada de Agent para além dos grandes modelos, levando mais pessoas que não são investigadores a participar na transformação rumo ao AGI.
Huang Chao acrescentou que o OpenClaw, através de uma interação semelhante à de um software de comunicação instantânea, confere aos agentes um “senso de gente real” mais forte, reduzindo o limiar de criação e de utilização de Agent; no futuro, tem grandes possibilidades de desbloquear toda a ecologia de ferramentas.
Desafios de capacidade computacional e de custos
À medida que a IA avança do período de treino para a era de inferência, a iteração tecnológica dos modelos, o regresso do valor comercial e o suporte das infraestruturas de capacidade computacional tornaram-se tópicos-chave para o desenvolvimento da indústria.
Yang Zhilin comparou o open source a “andaimes”, dizendo que reduz o limiar para que pessoas comuns utilizem as capacidades de modelos de ponta, fazendo com que a IA deixe de ser um exclusivo de programadores. Mas também foi direto ao afirmar que a comunidade open source enfrenta, atualmente, uma enorme lacuna em poder computacional para inferência.
Sobre a “ansiedade com a capacidade computacional”, mencionada repetidamente durante a discussão do painel. Zhang Peng admitiu que, devido ao aumento da complexidade das tarefas, o número de chamadas necessárias para concluir uma tarefa pode ser de 10 vezes ou até 100 vezes o de perguntas simples — o que faz da capacidade computacional um gargalo que limita o desenvolvimento da indústria.
Xia Lixue disse que o problema atual reside no aumento explosivo da procura trazido pela IA, que exige otimização da eficiência dos sistemas. “Nós resolvemos isso integrando software e hardware. Ligámos quase todos os tipos de chips de computação, conectámos dezenas de tipos de chips e clusters de computação no país, melhorámos a eficiência de conversão e transformámos a China na ‘fábrica de Token’ do mundo.”
Ele também traçou um objetivo visionário — “AI Made in China”: utilizar as vantagens energéticas e industriais da China, e, através de infraestruturas eficientes, transformar energia em produção de Token de alta qualidade para o mundo.
Mas, as infraestruturas atuais de computação em cloud limitam o desenvolvimento dos Agent, pelo que é necessário construir infraestruturas de IA mais inteligentes, capazes de se adaptarem às necessidades de alta frequência dos Agent. “Na nossa perspetiva, a própria infraestrutura deveria também ser um agente: capaz de se autoevoluir e de se autotransformar, formando uma organização autónoma.” Acrescentou Xia Lixue.
Luo Fuli apontou que, há dois anos, a equipa chinesa, num contexto de limitação de capacidade computacional — especialmente limitação de largura de banda de interconexão — conseguiu uma rutura na estrutura do modelo (como o DeepSeek).
“Embora, atualmente, os chips domésticos não estejam mais limitados, essa exploração de alta eficiência e de baixo custo de inferência continua a ser importante.” Disse Luo Fuli. O pressuposto para o OpenClaw se tornar cada vez mais inteligente com o uso é o Context de inferência. O desafio agora é: como conseguir manter o custo suficientemente baixo e a velocidade suficientemente alta em contextos longos de 1M ou 10M? “Só ao concretizar uma inferência eficiente de Long Context (contexto longo) é que se pode apoiar a capacidade de autoiteração dos Agent em ambientes complexos — este será o campo-chave de competição no futuro.”
E Luo Fuli prevê ainda que, com a explosão das necessidades de inferência trazida pelos Agent, a procura por Token este ano poderá aumentar 100 vezes, levando a competição a descer de nível para camadas como capacidade computacional, chips de inferência e até a camada de energia.
Huang Chao considera que, atualmente, a parte da Memory nos Agent ainda tem problemas, como compressão de informação imprecisa e incapacidade de recordar. Em tarefas de longo prazo e em cenários complexos, a Memory vai aumentar de forma explosiva, trazendo enorme pressão. “Acho que, no futuro, a Memory deve evoluir para um design por camadas, para que a Memory seja mais universal.”
Perspetiva para os próximos 12 meses
Se usasses uma palavra para descrever a tendência de desenvolvimento dos grandes modelos nos próximos doze meses, qual escolherias?
A palavra-chave de Huang Chao é “ecossistema”. Ele prevê que, no futuro, o software poderá ser nativo para Agent, e a pilha tecnológica terá de evoluir para o modelo “Agent Native”. Para isso, é necessário que a comunidade open source, os criadores de modelos e as empresas de aplicações construam em conjunto, para que os Agent saiam de “serem apenas novidades divertidas” e se tornem verdadeiramente um “colega digital” (Co-worker) fiável.
A palavra-chave de Luo Fuli é “autoevolução”. Ela acredita que uma estrutura forte de Agent ativa limites da capacidade dos grandes modelos que ainda não tinham sido tocados. Num ciclo verificável, o modelo já consegue otimizar objetivos de forma autónoma durante vários dias — por exemplo, explorando estruturas de modelos mais adequadas em investigação científica. Ela estima que essa capacidade de “autoevolução” irá aumentar de várias ordens de grandeza, em 1–2 anos, a eficiência de trabalhos criativos como a investigação científica.
A palavra-chave de Xia Lixue é “token sustentável”. Na sua perspetiva, todo o desenvolvimento de IA ainda está numa fase de avanço contínuo e prolongado. Mas um problema muito real é: os recursos são, no fim, limitados.
“Será que conseguimos fornecer token de forma sustentável, estável e em grande escala, para que os modelos de topo sirvam verdadeiramente cenários de downstream durante muito tempo — este é um problema crucial.” Na opinião de Xia Lixue, se for possível transformar, de forma sustentável e em Tokens de alta qualidade, as vantagens da China em energia e outros aspetos através da fábrica de Token e exportar para o mundo, então a China terá a oportunidade de se tornar a “fábrica de Token” do mundo.
A palavra-chave escolhida por Zhang Peng é “capacidade computacional”. A framework de agentes, de facto, liberta a criatividade de muitas pessoas e pode melhorar a eficiência dez vezes, mas o pressuposto é que toda a gente consiga pagar e que consiga usá-la.
“Há dois anos, o académico Zhang Yaqin disse uma frase no Fórum de Zhongguancun, com o sentido de ‘sem chip não há sentimentos; falar de chips magoa os sentimentos’, e eu sinto que hoje, na realidade, estamos um pouco de volta a esse estado.” Disse Zhang Peng.
(Editoria: Zhang Jingchao Verificação: Li Zhenghao Revisão: Yan Jingning)
Muitos conteúdos de grande volume, interpretação precisa — tudo na app de Sina Finance