Zhipu Tangjie: Claude já pode ter concluído o treino autônomo, 2 milhões de chips serão dedicados à autoevolução

De acordo com o monitoramento Beating, o fundador e principal cientista da Zhipu AI, Tang Jie, publicou no X uma previsão de que a maior inovação dos grandes modelos este ano será a resolução de tarefas de longo prazo (Long-Horizon Tasks), ou seja, operar continuamente em ambientes inteligentes para alcançar objetivos complexos.

Ele apontou que essa capacidade impulsionará a evolução rápida da indústria de uma «empresa de uma pessoa» para uma «empresa sem funcionários (NPC)», sendo os sistemas de agentes inteligentes autônomos (AAS) a próxima fronteira tecnológica. Tang Jie acredita que para alcançar essa visão é necessário superar três pilares tecnológicos principais: a capacidade de memória resolvida por contexto extremamente longo e RAG, o aprendizado contínuo realizado de forma indireta através do encurtamento do ciclo de atualização, e a capacidade de autoavaliação, atualmente a mais difícil de superar, mas que já apresenta um protótipo no Opus 4.7.

O destino final dos grandes modelos será a auto-evolução. Tang Jie especula que o Claude pode já possuir uma «linha de base de auto-treinamento», capaz de escrever código, limpar dados e treinar por conta própria, e que o rumor de um cluster de 2 milhões de chips no próximo ano provavelmente será dedicado ao treinamento autônomo. Ele prevê que o sistema operacional do futuro será substituído por um sistema operacional de grandes modelos (LLM OS), e as aplicações se tornarão «geradas sob demanda», revolucionando completamente a arquitetura tradicional de von Neumann.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar