Fórum Zhongguancun | Os principais nomes do setor de IA Yang Zhilin, Zhang Peng, Xia Lixue e Luo Fuli discutiram o quê?

robot
Geração de resumo em curso

Jornalista do Diário Económico da China: Li Jing, Pequim

A 27 de março, durante o Fórum Anual de 2026 de Zhongguancun, no encontro anual do sector, talentos de topo oriundos dos grandes modelos de IA e das infraestruturas de IA fundamentais na China concentraram-se num painel redondo.

Este painel redondo foi moderado pelo fundador de Mian Zhiyan, Yang Zhilin; contou ainda com a participação do CEO da Zhipu Huazhang, Zhang Peng, do cofundador e CEO da Wuwen Qiong, Xia Lixue, da responsável pelos grandes modelos da Xiaomi MiMo, Luo Fuli, bem como da professora assistente da Universidade de Hong Kong, mentora de doutorandos, e responsável pela equipa Nanobot, Huang Chao.

O repórter do China Business News observou que alguns talentos técnicos provenientes do sector de IA não fizeram cumprimentos cerimoniosos durante as conversas; os temas abrangeram desde o enorme abalo que a “Lagosta (OpenClaw)” provocou na indústria, até as correntes subterrâneas da evolução do ecossistema open source; desde a ansiedade perante o aumento explosivo dos custos de inferência até a reconfiguração do poder computacional na era dos Agent.

Nessa colisão de ideias, não só revelaram o caminho evolutivo dos grandes modelos nos próximos 12 meses, de “falar por conversa” para “fazer trabalho”, como também lançaram aquela questão que deixou todos simultaneamente entusiasmados e ansiosos: quando a utilização de Token chegar a uma explosão de cem vezes, estaremos preparados?

Falar da “Lagosta”: os Agent reconfiguram a interação homem-máquina

O painel começou e o tema centrou-se na “Lagosta”, que tem estado a dominar as redes recentemente. Não é apenas uma atualização de produto; é também vista como uma linha divisória para as aplicações de IA.

Sobre esta vaga de Agent, Zhang Peng considera que o seu núcleo reside em fazer a IA evoluir de “simples conversa” para “trabalho verdadeiramente prático”.

Ele apontou que a “Lagosta” coloca exigências extremamente elevadas às capacidades do modelo: o modelo precisa de conseguir pensar e planear durante longos períodos, bem como lidar com a capacidade de processar enormes volumes de contexto. Isto levou diretamente à estratégia de reajuste de preços dos modelos de inferência GLM recentemente adotada pela Zhipu.

“Porque, ao fazer trabalho complexo, os custos de inferência sobem de forma exponencial; o regresso à lógica normal do valor comercial é um caminho indispensável para o desenvolvimento saudável da indústria”, respondeu Zhang Peng.

Xia Lixue revelou que, desde o início deste ano, quando a “Lagosta” explodiu em popularidade, a quantidade de Token processada pela sua empresa aumentou quase uma vez a cada duas semanas, com um crescimento acumulado de 10 vezes — uma velocidade de explosão que só voltou a ocorrer no período da popularização da utilização de dados de telemóveis 3G.

Xia Lixue acredita que, no passado, a infraestrutura de cloud foi concebida para “engenheiros humanos”, ao passo que, na era dos Agent, o que é necessário é uma infraestrutura concebida para “IA”. Para descrever esse desfasamento, ele recorreu a uma comparação entre “ao nível de minutos” e “ao nível de milissegundos”: os humanos iniciam tarefas ao nível de minutos, enquanto o pensamento dos Agent e o arranque das tarefas ocorre ao nível de milissegundos.

“Por conseguinte, a infraestruturas futura deve ter uma eficiência semelhante à de uma fábrica de Token; e até evoluir para um agente que seja capaz de se autoevoluir e de se autotransformar.” Previu Xia Lixue.

Luo Fuli considera que o maior valor do OpenClaw está em “ser open source”, o que favorece a participação profunda da comunidade. Ele eleva muito o limite de modelos fechados de segundo nível na China: em quase todos os cenários, a taxa de conclusão da tarefa já está muito próxima da dos modelos mais recentes; ao mesmo tempo, garante a margem inferior através do sistema de Skill. Além disso, o open source acendeu o entusiasmo da comunidade pela exploração da camada de Agent para além dos grandes modelos, levando mais pessoas que não são investigadores a participar na transformação rumo ao AGI.

Huang Chao acrescentou que o OpenClaw, através de uma interação semelhante à de um software de comunicação instantânea, confere aos agentes um “senso de gente real” mais forte, reduzindo o limiar de criação e de utilização de Agent; no futuro, tem grandes possibilidades de desbloquear toda a ecologia de ferramentas.

Desafios de capacidade computacional e de custos

À medida que a IA avança do período de treino para a era de inferência, a iteração tecnológica dos modelos, o regresso do valor comercial e o suporte das infraestruturas de capacidade computacional tornaram-se tópicos-chave para o desenvolvimento da indústria.

Yang Zhilin comparou o open source a “andaimes”, dizendo que reduz o limiar para que pessoas comuns utilizem as capacidades de modelos de ponta, fazendo com que a IA deixe de ser um exclusivo de programadores. Mas também foi direto ao afirmar que a comunidade open source enfrenta, atualmente, uma enorme lacuna em poder computacional para inferência.

Sobre a “ansiedade com a capacidade computacional”, mencionada repetidamente durante a discussão do painel. Zhang Peng admitiu que, devido ao aumento da complexidade das tarefas, o número de chamadas necessárias para concluir uma tarefa pode ser de 10 vezes ou até 100 vezes o de perguntas simples — o que faz da capacidade computacional um gargalo que limita o desenvolvimento da indústria.

Xia Lixue disse que o problema atual reside no aumento explosivo da procura trazido pela IA, que exige otimização da eficiência dos sistemas. “Nós resolvemos isso integrando software e hardware. Ligámos quase todos os tipos de chips de computação, conectámos dezenas de tipos de chips e clusters de computação no país, melhorámos a eficiência de conversão e transformámos a China na ‘fábrica de Token’ do mundo.”

Ele também traçou um objetivo visionário — “AI Made in China”: utilizar as vantagens energéticas e industriais da China, e, através de infraestruturas eficientes, transformar energia em produção de Token de alta qualidade para o mundo.

Mas, as infraestruturas atuais de computação em cloud limitam o desenvolvimento dos Agent, pelo que é necessário construir infraestruturas de IA mais inteligentes, capazes de se adaptarem às necessidades de alta frequência dos Agent. “Na nossa perspetiva, a própria infraestrutura deveria também ser um agente: capaz de se autoevoluir e de se autotransformar, formando uma organização autónoma.” Acrescentou Xia Lixue.

Luo Fuli apontou que, há dois anos, a equipa chinesa, num contexto de limitação de capacidade computacional — especialmente limitação de largura de banda de interconexão — conseguiu uma rutura na estrutura do modelo (como o DeepSeek).

“Embora, atualmente, os chips domésticos não estejam mais limitados, essa exploração de alta eficiência e de baixo custo de inferência continua a ser importante.” Disse Luo Fuli. O pressuposto para o OpenClaw se tornar cada vez mais inteligente com o uso é o Context de inferência. O desafio agora é: como conseguir manter o custo suficientemente baixo e a velocidade suficientemente alta em contextos longos de 1M ou 10M? “Só ao concretizar uma inferência eficiente de Long Context (contexto longo) é que se pode apoiar a capacidade de autoiteração dos Agent em ambientes complexos — este será o campo-chave de competição no futuro.”

E Luo Fuli prevê ainda que, com a explosão das necessidades de inferência trazida pelos Agent, a procura por Token este ano poderá aumentar 100 vezes, levando a competição a descer de nível para camadas como capacidade computacional, chips de inferência e até a camada de energia.

Huang Chao considera que, atualmente, a parte da Memory nos Agent ainda tem problemas, como compressão de informação imprecisa e incapacidade de recordar. Em tarefas de longo prazo e em cenários complexos, a Memory vai aumentar de forma explosiva, trazendo enorme pressão. “Acho que, no futuro, a Memory deve evoluir para um design por camadas, para que a Memory seja mais universal.”

Perspetiva para os próximos 12 meses

Se usasses uma palavra para descrever a tendência de desenvolvimento dos grandes modelos nos próximos doze meses, qual escolherias?

A palavra-chave de Huang Chao é “ecossistema”. Ele prevê que, no futuro, o software poderá ser nativo para Agent, e a pilha tecnológica terá de evoluir para o modelo “Agent Native”. Para isso, é necessário que a comunidade open source, os criadores de modelos e as empresas de aplicações construam em conjunto, para que os Agent saiam de “serem apenas novidades divertidas” e se tornem verdadeiramente um “colega digital” (Co-worker) fiável.

A palavra-chave de Luo Fuli é “autoevolução”. Ela acredita que uma estrutura forte de Agent ativa limites da capacidade dos grandes modelos que ainda não tinham sido tocados. Num ciclo verificável, o modelo já consegue otimizar objetivos de forma autónoma durante vários dias — por exemplo, explorando estruturas de modelos mais adequadas em investigação científica. Ela estima que essa capacidade de “autoevolução” irá aumentar de várias ordens de grandeza, em 1–2 anos, a eficiência de trabalhos criativos como a investigação científica.

A palavra-chave de Xia Lixue é “token sustentável”. Na sua perspetiva, todo o desenvolvimento de IA ainda está numa fase de avanço contínuo e prolongado. Mas um problema muito real é: os recursos são, no fim, limitados.

“Será que conseguimos fornecer token de forma sustentável, estável e em grande escala, para que os modelos de topo sirvam verdadeiramente cenários de downstream durante muito tempo — este é um problema crucial.” Na opinião de Xia Lixue, se for possível transformar, de forma sustentável e em Tokens de alta qualidade, as vantagens da China em energia e outros aspetos através da fábrica de Token e exportar para o mundo, então a China terá a oportunidade de se tornar a “fábrica de Token” do mundo.

A palavra-chave escolhida por Zhang Peng é “capacidade computacional”. A framework de agentes, de facto, liberta a criatividade de muitas pessoas e pode melhorar a eficiência dez vezes, mas o pressuposto é que toda a gente consiga pagar e que consiga usá-la.

“Há dois anos, o académico Zhang Yaqin disse uma frase no Fórum de Zhongguancun, com o sentido de ‘sem chip não há sentimentos; falar de chips magoa os sentimentos’, e eu sinto que hoje, na realidade, estamos um pouco de volta a esse estado.” Disse Zhang Peng.

(Editoria: Zhang Jingchao Verificação: Li Zhenghao Revisão: Yan Jingning)

Muitos conteúdos de grande volume, interpretação precisa — tudo na app de Sina Finance

GLM-2,65%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar