La protagonista de "Resident Evil" creó un sistema de memoria AI con Claude, puntuación perfecta en el estándar LongMemEval

robot
Generación de resúmenes en curso

Según el monitoreo de 1M AI News, la actriz de Hollywood Milla Jovovich (obras representativas: “El quinto elemento” y la saga de “Resident Evil”) y Ben Sigman, emprendedor de Bitcoin y fundador de la plataforma de préstamos descentralizados Libre, desarrollaron conjuntamente un sistema de memoria de IA de código abierto llamado MemPalace. Fue publicado en GitHub bajo la licencia MIT, y en tres días logró 5500 estrellas. Sigman afirma que ambos dedicaron varios meses a desarrollar el proyecto usando Claude de Anthropic; en el historial de commits se indica que Claude Opus 4.6 figura como autor coautor del código.

La ventaja competitiva central de MemPalace radica en los resultados de las pruebas de referencia. En LongMemEval, el estándar del sector de recuperación de memoria, la recuperación puramente local (sin llamar a ninguna API externa) alcanza un 96.6% de Recall@5. Al activar el reordenamiento opcional con el modelo Haiku, se obtiene el puntaje máximo: acierto total en 500 preguntas. La parte del proyecto afirma que este es el mejor resultado en la historia de dicho benchmark, tanto para productos gratuitos como de pago. En otros dos benchmarks, ConvoMem obtiene 92.9% y afirma que supera en más del doble a Mem0, el producto de memoria de IA; en LoCoMo, todas las categorías de razonamiento multi-paso obtienen el puntaje máximo. El código de los benchmarks ya se ha publicado junto con el repositorio para que pueda reproducirse.

A diferencia de las soluciones comunes de bases de datos vectoriales, MemPalace imita el método de “palacio de la memoria” de los oradores de la antigua Grecia para organizar la información. El sistema extrae y organiza los registros de conversación del usuario en una estructura de cuatro capas: Ala (Wing, separa por personajes o proyectos) → Habitación (Room, tema específico) → Alacena (Closet, resúmenes comprimidos) → Cajón (Drawer, registros de diálogo palabra por palabra). Las habitaciones relacionadas dentro de la misma ala se conectan horizontalmente mediante “Salón” (Hall); entre alas distintas, se realizan referencias cruzadas mediante “Túnel” (Tunnel). Las pruebas de la parte del proyecto muestran que, solo con esta estructura, se puede aumentar en 34% la precisión de la recuperación.

El proyecto también inventó un dialecto de compresión sin pérdidas llamado AAAK, diseñado específicamente para agentes de IA. Comprime el contexto del usuario de más de mil tokens a aproximadamente 120 tokens, con una tasa de compresión de alrededor de 30 veces. AAAK es texto puramente estructurado; no requiere decodificadores especiales ni ajustes finos. Cualquier modelo lingüístico grande que pueda leer texto lo entiende directamente. El sistema además incluye detección de contradicciones, capaz de capturar inconsistencias antes de la salida, como nombres, pronombres y edades.

Todo el sistema se ejecuta completamente en local, sin depender de servicios en la nube, sin necesitar claves de API y sin cobrar. Admite la integración con herramientas como Claude, ChatGPT, Cursor, etc. mediante el protocolo MCP (proporciona 19 herramientas MCP), y también admite generar resúmenes de contexto a partir de modelos locales como Llama y Mistral mediante comandos.

El cruce de Jovovich entre campos ha sorprendido bastante al mundo tecnológico. El repositorio del proyecto está registrado bajo su cuenta de GitHub; de las 7 veces que se hicieron commits, 4 fueron realizados por ella, incluida la contribución inicial que contiene todo el código central. Publicó en Instagram un video de presentación del proyecto.

BTC-1,04%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado