Sem brincadeiras, o código-fonte do Claude Code foi divulgado, 500.000 linhas de código foram expostas

robot
Geração de resumo em curso

Investir em acções é só ver os relatórios de análise dos analistas do Jinqilin. Autoritários, profissionais, oportunos, abrangentes—ajudam-no a descobrir oportunidades de temas com potencial!

(Fonte: aifaner)

O mundo é um enorme grupo gigantesco de “equipa de improviso”.

Hoje à tarde, o programador Chaofan Shou publicou um tweet e colocou directamente o pacote zip completo do código-fonte integral da mais recente ferramenta de linha de comandos da Anthropic, o Claude Code.

Este tweet explodiu rapidamente nos círculos de programadores; em apenas algumas horas, as visualizações ultrapassaram 5,3 milhões.

A secção de comentários ficou instantaneamente animada. O utilizador @ai_for_success disse apenas uma frase: «Liguem já para o Dario!» (Dario Amodei é o CEO da Anthropic);

Um internauta disparou logo palavrões: «Caramba.» Outro programador, @realsigridjin, foi ainda mais rápido: já fez uma cópia de segurança do código vazado para o GitHub. O nome do repositório é instructkr/claude-code, e está marcado como «Claude Code Snapshot for Research».

Ou seja, mesmo que a Anthropic tenha apagado com urgência os ficheiros originais, o código já está guardado permanentemente na comunidade open source. O volume desta fuga é bastante impressionante: quase 2 mil ficheiros, mais de 500 mil linhas de código TypeScript, tudo exposto publicamente na internet.

▲Segue o endereço

Mas, sendo uma tão grande “unicórnio” de IA, como é que o código central acabou por vazar? A resposta, ao dizer-se, dá vontade de rir e chorar: quando fizeram o empacotamento para o npm, esqueceram-se de apagar os ficheiros .map.

No entanto, quando os programadores do mundo inteiro se precipitam para esta base de código, é difícil não sentir admiração, porque neste código que não devia ser público, além do código-fonte do Claude Code, a Anthropic esconde uma série completa de planos de IA extremamente românticos e ainda assim “hardcore”:

Há um animal de estimação cibernético que consegue acompanhar o seu trabalho de escrita de código no terminal—e ainda um assistente de IA residente que, a meio da noite, “sonha” sozinho e organiza memórias.

Uma tragédia épica de relações públicas acabou, à força, por se transformar numa “apresentação selvagem” que abala a indústria.

Um erro básico que desvendou os segredos do Claude Code

Antes de falarmos dessas futuras funcionalidades que deixam as pessoas entusiasmadas, convém ver o quão desajeitada a Anthropic está neste momento.

Se usou recentemente a API do Claude, provavelmente encontrou um problema estranho: a sua quota de utilização cai a uma velocidade completamente anormal, como uma banheira com fuga a esvaziar-se. Neste momento, a equipa oficial da Anthropic ainda está a investigar com pressa este bug que faz o consumo de Tokens disparar.

Como se não bastasse—o Token Bug ainda não foi corrigido—e as cuecas já foram expostas.

Desta vez, a “culpada” foi a ficheiro .map (Source Map), algo bem familiar para programadores de front-end e Node.js.

A sua função é mapear o código de produção comprimido e ofuscado de volta para o código-fonte original, para facilitar a depuração local. Porém, ao publicar oficialmente no npm e noutros repositórios de imagens públicas, apagar o ficheiro .map é uma operação básica escrita na primeira página de qualquer manual de “primeiros passos”.

No entanto, a Anthropic, que sempre gosta de dizer “segurança” e “cautela”, cometeu, afinal, um erro deste nível—quase de estagiário.

A arquitectura que vazou também é suficientemente chocante: uma camada de ferramentas composta por mais de 40 módulos de funcionalidades, cobrindo desde leitura e escrita de ficheiros, execução de Bash até à geração por sub-Agents; um núcleo de inferência QueryEngine.ts com quase 50 mil linhas, responsável pelo agendamento de cadeias de pensamento; e ainda um coordenador de agendamento multiagentes coordinator e um módulo de ponte para o IDE.

Além disso, há ainda funcionalidades não publicadas que os programadores “escarafuncharam” directamente no código, com uma quantidade de informação surpreendente.

De entre todas as funções escondidas que vazaram, o projecto com o código BUDDY é o que mais chamou atenção. O utilizador @baanditeagle, na secção de comentários do post original de Chaofan Shou, colocou capturas de ecrã da funcionalidade BUDDY, fazendo com que toda a conversa se transformasse num verdadeiro pandemónio.

Imagine este cenário: está a escrever código no terminal com fundo negro e texto branco; de repente, um balão de diálogo em estilo pixel aparece ao lado da caixa de entrada—e lá dentro mora um animal de estimação cibernético feito apenas para si. A configuração é extremamente detalhada:

Isto lembra bastante aquele “olhinho preguiçoso (Clippy)” irritante do Microsoft Office. Mas o BUDDY pode dizer-se que é a sua versão definitiva, a evolução máxima.

Curiosamente, o código-fonte indica que esta funcionalidade estava originalmente planeada para ser aquecida como ovo de Páscoa entre 1 e 7 de abril, com testes internos para funcionários da Anthropic em maio. Mas agora, o mundo inteiro sabe antecipadamente deste presente.

Uma IA que sonha, e uma equipa da Anthropic que não consegue dormir

Se o BUDDY é um ovo de Páscoa romântico para engenheiros, a funcionalidade com o código KAIROS revela totalmente a ambição da Anthropic no caminho para a AGI.

Na nossa situação actual ao dialogar com grandes modelos, é basicamente “lê e queima”. Fecha-se a página, abre-se uma nova conversa e tudo recomeça do zero. O KAIROS quer quebrar este paradigma; ele é definido como «Always-On Claude (Claude sempre ligado)».

Isto não é apenas uma biblioteca de memória de texto longo. O KAIROS consegue manter uma memória contínua entre diferentes sessões, guardando os seus hábitos de trabalho e o contexto dos projectos num directório privado. E ainda tem permissões para iniciar tarefas activamente.

Além disso, no código existe também um novo mecanismo chamado Nightly Dreaming (sonhar à noite).

Como é que se entende isto? Nos mecanismos fisiológicos humanos, durante o sono, “sonhar” é um processo-chave em que o cérebro organiza as memórias de fragmentos do dia, elimina sinapses inúteis e consolida informações importantes.

A Anthropic levou este conceito biomimético para dentro da IA. Para impedir que os registos de memórias de longa duração cresçam infinitamente e acabem por causar confusão lógica, o KAIROS inicia automaticamente à noite um processo de “sonhar”. O código trata até com detalhe os problemas de timestamp que atravessam a meia-noite, garantindo que o processo de sonhar não é interrompido.

Mais especificamente, durante este processo, o Claude faz retroceder no “backstage” as suas interacções desse dia como se fosse o cérebro humano, eliminando informações redundantes, e condensando o essencial em memórias de longo prazo.

O AI ajuda-o a escrever código durante o dia; quando adormece, ele fica sozinho no servidor a “sonhar” para o compreender melhor. Transformar um problema de engenharia frio e sem alma (compressão e recuperação do contexto) numa solução cheia de metáforas de vida—este tipo de pensamento de produto realmente faz brilhar os olhos.

Além do BUDDY e do KAIROS, o código-fonte esconde ainda mais coisas:

Dá para dizer que, enquanto outros grandes modelos ainda se contentam em “apostar” em métricas e em efeitos multimodais, a Anthropic já tentou, silenciosamente na base do sistema, montar um ecossistema completo de «empregados digitais»: com memória (KAIROS), com capacidade de planeamento (ULTRAPLAN), com colaboração em equipa (Coordinator), e até com companhia emocional (BUDDY).

Se não houver imprevistos, neste momento, os funcionários da Anthropic devem estar a atravessar uma noite sem dormir. O Token consumo Bug ainda não foi resolvido e, por cima, veio um vazamento de código-fonte de escala épica—para qualquer empresa tecnológica, isto é uma catástrofe.

Mas esta catástrofe também suscita sentimentos contraditórios.

Numa indústria de IA cada vez mais cheia de PowerPoints para enganar expectativas, lançamentos a prazo (futuros) e competição de produtos indistinguíveis, a Anthropic, de um modo extremamente embaraçoso e pouco digno, mostra ao mundo o quão avançadas são as coisas que estão de facto a construir.

Claro que há quem veja um problema ainda mais profundo. O utilizador @QiyangYao escreveu na secção de comentários:

Por trás desta ocorrência de engenharia aparentemente cómica, está uma falha sistémica na gestão de segurança desta empresa de IA de topo. A Anthropic gastou dezenas de biliões de dólares a investigar uma questão final: como tornar a IA mais parecida com os humanos. Este incidente de fuga deu uma resposta inesperada: não é preciso ter pressa; primeiro, basta tornar os humanos mais parecidos com a IA.

Por exemplo, aprender a executar automaticamente um checklist de verificação antes do lançamento.

Muitas notícias, análises precisas—tudo na app da Sina Finance

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar