Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
95 pós AI “menina génio” Luo Fulie, última declaração!
记者|杨卉
No dia 27 de março, o fórum anual de 2026 de Zhongguancun (000931) realizou o “Dia do Tema de Inteligência Artificial · Fórum Temático” em Pequim. A responsável pelo grande modelo MiMo da Xiaomi, Luo Fuli, apareceu na sessão de mesa redonda com o tema “OpenClaw e AI Open Source”.
Luo Fuli afirmou que o valor central do OpenClaw (comumente conhecido como “lagosta”) tem dois pontos principais: o primeiro é o código aberto. Do ponto de vista do modelo base, esse tipo de estrutura, por um lado, garante o limite inferior do grande modelo base, e por outro lado, expande seu limite superior. O segundo ponto é que o OpenClaw acendeu a imaginação das pessoas em relação à camada de Agentes. Na sua opinião, à medida que os grandes modelos e as estruturas de Agentes avançam, a demanda por raciocínio continuará a crescer rapidamente, levando até mesmo a competição para além do modelo, em termos de poder computacional, chips de raciocínio e energia.
Os jornalistas do “Diário Econômico Diário” notaram que, quando solicitada a descrever em uma palavra a tendência de desenvolvimento dos grandes modelos no próximo ano e suas expectativas, Luo Fuli escolheu “evolução”.
O valor mais central do OpenClaw tem dois pontos
Luo Fuli, vestindo uma camisa xadrez preto e branco e jeans, era a convidada mais descontraída no palco. Como responsável pelo grande modelo MiMo da Xiaomi, ela lançou, juntamente com sua equipe, vários modelos desenvolvidos internamente nos últimos meses e chamou a atenção por ser uma “menina prodígio” da IA nascida após 1995, além de ex-pesquisadora da DeepSeek.
(图源:主办方供图)
Ao discutir o recente sucesso do OpenClaw, Luo Fuli afirmou que o vê como um evento muito revolucionário e disruptivo na camada da estrutura de Agentes. “Embora eu saiba que muitas pessoas ao meu redor que trabalham com codificação profunda (deep coding) podem ainda escolher Claude Code (o assistente de programação AI lançado pela Anthropic) como a primeira opção, eu acredito que, assim que realmente usarem o OpenClaw, sentirão de forma clara que essa estrutura é, na verdade, líder em muitos aspectos de design. Incluindo várias atualizações recentes do Claude Code, que, na minha opinião, de certa forma, também estão se aproximando do OpenClaw”, disse Luo Fuli.
Usando sua experiência de uso como exemplo, Luo Fuli afirmou que o valor mais central do OpenClaw tem dois pontos. O primeiro é o código aberto. Ela acrescentou que estruturas como OpenClaw e Claude Code têm um grande valor em elevar significativamente o limite superior dos modelos no país que ainda não se aproximaram completamente de modelos de código fechado, mas já estão na vanguarda dos modelos de código aberto. Do ponto de vista do modelo base, esse tipo de estrutura, por um lado, garante o limite inferior do grande modelo base, e por outro lado, expande seu limite superior. O segundo ponto é que “além disso, eu acho que outro valor importante que isso traz para toda a comunidade é acender a imaginação de todos sobre a camada de Agentes”, disse Luo Fuli.
Reduzindo o custo de raciocínio e aumentando a velocidade
Quando questionada sobre a “vantagem única da Xiaomi na criação de grandes modelos”, Luo Fuli sorriu e devolveu a pergunta. “Eu gostaria de deixar de lado a questão ‘qual é a vantagem única da Xiaomi na criação de grandes modelos’. O que eu realmente quero discutir é a vantagem geral das equipes de grandes modelos na China na criação de modelos base, porque eu acho que esse tópico tem um valor mais universal.”
De acordo com Luo Fuli, há cerca de dois anos, ela já havia visto que as equipes de modelos base na China estavam fazendo avanços muito importantes nessa direção: como superar as limitações impostas por condições de hardware limitadas, especialmente em relação à largura de banda de interconexão NVLink (uma tecnologia de interconexão entre chips de alta velocidade e baixa latência desenvolvida pela NVIDIA), para realizar trabalhos que parecem comprometer a eficiência, mas que, na verdade, são inovações na estrutura do modelo, como as séries DeepSeek V2 e V3, que incluem MoE e MLA de granularidade fina.
“Depois, vimos que esse tipo de inovação trouxe uma verdadeira mudança.” Na sua opinião, o surgimento da DeepSeek deu grande coragem e confiança a todas as equipes de modelos base no país. Incluindo as explorações relacionadas à DeepSeek, as soluções da Kimi e algumas pesquisas da Xiaomi voltadas para a próxima geração de estruturas de modelos, todas apontam para a mesma questão: após a entrada na era dos Agentes, como a estrutura do modelo deve evoluir ainda mais.
“Estivemos discutindo o OpenClaw. Assim que você realmente o utiliza, perceberá que, quanto mais você usa, melhor e mais inteligente ele se torna. E um pré-requisito para isso é que a fase de raciocínio deve ter um contexto (context) suficientemente longo.”
Luo Fuli afirmou que o Long context (contexto longo) já é um tópico que tem sido debatido há muito tempo, mas até hoje, as pessoas realmente começaram a perceber que não é que o modelo não consiga lidar com contextos de milhões ou até mesmo dezenas de milhões, mas sim que, se o custo de raciocínio for muito alto e a velocidade muito lenta, isso não terá valor prático.
“Portanto, a questão realmente crítica é: será que podemos, em situações de contextos de um milhão ou até dez milhões, reduzir o custo de raciocínio e aumentar a velocidade?” Na sua opinião, apenas sob essa premissa, os usuários estarão dispostos a delegar tarefas que realmente têm um alto valor de produtividade aos modelos, e os modelos também terão a oportunidade de realizar tarefas de maior complexidade em ambientes de longos contextos. Pode-se até dizer que só quando chegarmos a contextos de dez milhões ou até bilhões, poderemos realmente ver a capacidade de auto-iteracão dos modelos sendo liberada.
“Estamos também pensando em como construir algoritmos de aprendizagem mais eficazes; como coletar textos que realmente tenham relações de dependência de longo prazo em contextos de um milhão, dez milhões ou até mais; e como combinar ambientes complexos para gerar dados de trajetória de alta qualidade. Essas são questões que estamos continuamente promovendo.”
Luo Fuli afirmou que a tendência de longo prazo que vê é que, com os grandes modelos progredindo rapidamente e somando-se ao suporte da estrutura de Agentes, a demanda por raciocínio certamente continuará a crescer rapidamente, levando a competição para outra dimensão, em termos de poder computacional, chips de raciocínio e até mesmo energia.
“Auto-evolução” já possui caminhos de implementação relativamente viáveis
Quando solicitada a descrever em uma palavra a tendência de desenvolvimento dos grandes modelos no próximo ano e suas expectativas, Luo Fuli escolheu “evolução”. Ao mesmo tempo, ela concordou com o marco de um ano. “Eu acho que é muito significativo limitar essa questão a um ano. Se estendermos o tempo para cinco anos, de acordo com a minha compreensão de AGI, muitas coisas praticamente já são inevitáveis.”
Na sua opinião, embora “evolução” possa parecer um pouco abstrato, ela teve uma compreensão mais concreta e prática desse termo recentemente, e começou a sentir que “auto-evolução” já possui caminhos de implementação relativamente viáveis. Ela afirmou que, à medida que a capacidade dos modelos aumenta, no passado, sob o paradigma puramente conversacional, o limite dos modelos pré-treinados na verdade não foi plenamente explorado. E hoje, esse limite está sendo gradualmente ativado pela estrutura de Agentes.
“Agora, já conseguimos tocar nesse limite.” Luo Fuli afirmou que, se esse mecanismo de “auto-evolução” puder operar de forma contínua, seu potencial será muito grande. “Atualmente, muitos modelos no país já conseguem operar de forma estável por um a dois dias. Claro, isso está relacionado à dificuldade da tarefa.” Ela mencionou que, em algumas tarefas de maior certeza, os modelos já conseguem otimizar de forma autônoma e continuar a execução por dois ou três dias.
Na opinião de Luo Fuli, “auto-evolução” é uma direção que realmente pode criar algo novo, não substituindo simplesmente a produtividade já existente dos humanos, mas explorando, como os melhores cientistas, coisas que ainda não existem no mundo. Um ano atrás, ela achava que esse processo levaria de três a cinco anos; mas recentemente, ela acredita que essa janela de tempo deve ser reduzida para um a dois anos. “Podemos em breve ver, sob o suporte de uma estrutura de Agentes de auto-evolução forte, que os grandes modelos trarão pelo menos um aumento exponencial na pesquisa científica. Espero que esse paradigma possa se irradiar para disciplinas e áreas mais amplas no futuro.”
Após a apresentação, a multidão se aglomerou em torno de Luo Fuli. Sob a orientação dos organizadores do evento, ela rapidamente se dirigiu para fora do local e, alegando “ter assuntos a tratar”, recusou pedidos de entrevista, mas ainda havia seguidores que a acompanhavam. Um voluntário se aproximou para agradecê-la, mencionando que havia sido inspirado por um artigo de Luo Fuli na internet, e ela fez um gesto de punho cerrado e disse ao voluntário: “Força”.
(每经记者李少婷对本文亦有贡献)
|Diário Econômico nbdnews artigo original|
Proibida a reprodução, extração, cópia e uso em geral sem autorização
(编辑:王治强 HF013)