Depois de codificar com MiMo vibe um fim de semana...

robot
Geração de resumo em curso

Assim que o MiMo foi lançado, eu usei o crédito gratuito do OpenCode para fazer uma tentativa, criando um pequeno projeto. O projeto em si não era difícil, mas o MiMo travou por muito tempo e não deu feedback de erro claro, o que me deixou com uma má impressão dele na época.

No entanto, na sexta-feira à noite, vi alguém dizer que o método de cobrança por token no site oficial do MiMo funciona muito melhor do que o crédito gratuito do OpenCode, então recarreguei 200 yuan e continuei o meu projeto original, além de duas tarefas de limpeza de dados um pouco mais complexas.

Minha impressão é que ele realmente é muito mais forte do que todos os modelos nacionais que usam Coding Plan até agora.

Isso não se reflete necessariamente na taxa de sucesso de execução única, mas sim na sensação de que, quando usei o Coding Plan antes, tinha uma impressão de que os fabricantes de grandes modelos nacionais limitavam as chamadas ao Agent: talvez limitando o comprimento da cadeia de pensamento ou o número de rodadas de execução do Agent, fazendo com que esses Agents tendessem a terminar a tarefa entre 50% e 60%. Para casos realmente difíceis ou bugs complexos, eles parecem simplesmente ignorar esses problemas.

Com o MiMo, acho que esse problema melhora bastante. Ele consegue executar por várias horas de forma sólida, justamente para resolver bugs muito difíceis. A lógica é fácil de entender: quanto mais chamadas ao Coding Plan, maior o custo; mas com a cobrança por token, quanto mais chamadas, maior a receita.

Na minha experiência prática, embora tenha gasto 200 yuan, consegui resolver três tarefas que me incomodavam há bastante tempo. Acho que vale bastante a pena. Mesmo comprando dados prontos na internet, certamente custariam mais de 200 yuan.

Porém, essa experiência me fez pensar em um ponto contraditório dos modelos nacionais:

Modelos como o Claude, que já estão no topo, podem substituir uma grande parte do trabalho, e os fabricantes nacionais já têm capacidade para atingir cerca de 80% a 90% do desempenho do Claude. Mas, se continuarmos promovendo usando o método do Coding Plan, a experiência de uso ainda será muito inferior. Tarefas um pouco mais complexas ou difíceis de resolver não podem ser tratadas, não por falta de capacidade do modelo, mas por limitações impostas pelos fabricantes, que afetam o uso do Agent devido aos custos. Essas limitações acabam prejudicando a popularização e o uso do Agent na prática.

Acredito que o principal problema seja a limitação de poder de processamento e o hábito de precificação de serviços domésticos. Não sei qual é a opinião de todos sobre isso. Minha ideia é que, nos próximos 3 a 5 anos, a demanda por poder de processamento continuará grande, mas a questão é se isso beneficiará realmente empresas como a Nvidia ou se realmente ajudará a impulsionar a atualização dos chips nacionais.

(Recentemente, também disseram que o DeepSeek V4 está atrasado por precisar se adaptar a chips nacionais, o que dificultou a convergência do treinamento…)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar