A protagonista de Resident Evil escreveu um sistema de memória de IA com o Claude; o benchmark LongMemEval obteve pontuação máxima

robot
Geração de resumo em curso

De acordo com o monitorização da 1M AI News, a actriz de Hollywood Milla Jovovich (obra representativa: “O Quinto Elemento”, a série “Resident Evil”) e o empreendedor de Bitcoin, Ben Sigman, fundador da plataforma de empréstimos descentralizados Libre, desenvolveram em conjunto um sistema aberto de memória para IA, MemPalace. Foi publicado no GitHub sob a licença MIT e, em três dias, recebeu 5500 estrelas. Sigman afirma que ambos passaram vários meses a desenvolver o projeto com o Claude da Anthropic; nos registos de commits, o Claude Opus 4.6 aparece listado como coautor do código.

A principal vantagem competitiva do MemPalace está nos resultados dos testes de referência. No benchmark de referência padrão da indústria de recuperação de memória, LongMemEval, a pesquisa apenas local (sem chamar quaisquer APIs externas) atinge 96,6% de Recall@5. Ao activar o reordenamento opcional com o modelo Haiku, obteve uma pontuação máxima com 500 itens totalmente correctos; a equipa do projeto afirma que se trata da maior pontuação de sempre neste benchmark, tanto para produtos gratuitos como pagos. Nos outros dois benchmarks, ConvoMem obtém 92,9%, afirmando que supera em mais do dobro os produtos de memória para IA Mem0; no LoCoMo, todas as categorias de raciocínio multi-hop têm pontuação máxima. O código dos testes de referência foi disponibilizado juntamente com o repositório, para ser reproduzível.

Ao contrário das soluções comuns baseadas em bases de dados vetoriais, o MemPalace imita a técnica do “palácio da memória” de um orador da Grécia Antiga para organizar a informação. O sistema extrai e organiza os registos de conversa do utilizador numa estrutura de quatro camadas: Asa (Wing, separando por pessoas ou projectos) → Sala (Room, tema específico) → Armário (Closet, sumário comprimido) → Gaveta (Drawer, registos de conversa palavra por palavra). As salas relacionadas dentro da mesma asa são ligadas horizontalmente por meio de um “Salão” (Hall); entre asas diferentes, fazem-se referências cruzadas através de um “Túnel” (Tunnel). Os testes da equipa do projeto mostram que, apenas com esta estrutura, a precisão da pesquisa pode ser aumentada em 34%.

O projeto também criou um dialecto de compressão sem perdas, denominado AAAK, concebido especificamente para agentes de IA. Ele comprime o contexto do utilizador com milhares de tokens para cerca de 120 tokens, com uma taxa de compressão de aproximadamente 30x. O AAAK é texto totalmente estruturado; não requer decodificadores especiais nem afinação (fine-tuning). Qualquer grande modelo de linguagem capaz de ler texto consegue compreendê-lo directamente. O sistema inclui ainda detecção de contradições, capaz de captar antes da saída inconsistências de nomes, pronomes, idades, entre outros.

O sistema inteiro funciona totalmente no local (localmente), não depende de serviços na cloud, não requer chaves de API e não tem custos. Suporta a integração com ferramentas como Claude, ChatGPT, Cursor, etc., através do protocolo MCP (são fornecidas 19 ferramentas MCP) e também suporta, via comandos, a geração de resumos de contexto com modelos locais como Llama, Mistral, entre outros.

A incursão transversal de Jovovich surpreende bastante o mundo tecnológico. O repositório do projeto está registado na conta do GitHub dela; das 7 submissões, 4 foram feitas por ela, incluindo o commit inicial que contém todo o código central. Ela publicou um vídeo de apresentação do projeto no Instagram.

BTC-1,04%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar