No es broma, se filtró el código fuente de Claude Code, se expusieron 500,000 líneas de código

robot
Generación de resúmenes en curso

Para operar en bolsa, fíjate en los informes de analistas de Jin Qilin: autoridad, profesionalismo, a tiempo y de forma integral; ¡te ayuda a descubrir oportunidades de temas con potencial!

(Fuente: Ai Faner)

El mundo es un gigantesco equipo de rodaje improvisado.

Esta tarde, el desarrollador Chaofan Shou publicó un tuit en el que soltó directamente el paquete comprimido completo con el código fuente del último tool de línea de comandos de Anthropic, Claude Code, llamado src.zip.

Ese tuit explotó rápidamente en la comunidad de desarrolladores; en pocas horas, las visualizaciones superaron los 5,3 millones.

El área de comentarios se llenó al instante de actividad. El usuario @ai_for_success solo dijo una frase: «¡Llamen ya a Dario!» (Dario Amodei es el CEO de Anthropic);

Un internauta soltó directamente una maldición: «¡A la mierda con esto!». Otro desarrollador, @realsigridjin, actuó aún más rápido: ya hizo una copia de seguridad del código filtrado en GitHub. El nombre del repositorio es instructkr/claude-code, y está marcado como «Claude Code Snapshot for Research».

Es decir, aunque Anthropic eliminara con urgencia los archivos originales, el código ya está guardado de forma permanente en la comunidad de código abierto. Esta filtración tiene una magnitud realmente impactante: casi 2.000 archivos, más de 500.000 líneas de código TypeScript, todo expuesto en internet sin protección.

▲Adjunto la dirección

Pero, siendo una de esas grandes “unicornios” de IA, ¿cómo se filtró su código central? La respuesta, al decirla, provoca risa y llanto a la vez: al empaquetar y publicarlo en npm, olvidaron borrar los archivos .map.

Sin embargo, cuando los desarrolladores de todo el mundo se lanzan en masa hacia esta base de código, resulta difícil no sentir asombro, porque en esta porción de código que no debía hacerse pública, además del código fuente de Claude Code, Anthropic oculta todo un conjunto de planos de IA tan románticos como ultrarigidos:

hay mascotas ciberpunk que te acompañan a escribir código en la terminal; y hay también asistentes de IA residentes que, a medianoche, “soñan” por su cuenta para organizar recuerdos.

Una catástrofe épica de relaciones públicas se convirtió, a la fuerza, en una “presentación en vivo” salvaje que sacudió la industria.

Un error infantil que reveló el secreto de Claude Code

Antes de hablar de esas funciones futuras que emocionan, primero hay que ver qué tan desordenados están ahora en Anthropic.

Si usaste recientemente la API de Claude, es muy probable que te hayas topado con un problema extraño: tus límites de uso caen a una velocidad completamente anormal, como si un baño con goteras se vaciara sin parar. Por el momento, la propia oficial de Anthropic sigue ocupada a toda prisa investigando el bug que hace que el consumo de tokens se dispare.

Para colmo, el Token Bug todavía no estaba arreglado cuando ya les sacaron los pantalones.

Esta vez el culpable fue el archivo .map (Source Map), que es bien conocido por desarrolladores de frontend y de Node.js.

Su función es mapear el código de producción comprimido y ofuscado de vuelta al código fuente original, para facilitar la depuración local de los desarrolladores. Pero cuando se publica formalmente en un repositorio público como npm, borrar el .map está en la primera página de cualquier tutorial básico para principiantes.

Sin embargo, Anthropic, que siempre lleva en la boca que “seguridad y cautela” son lo primero, en realidad cometió un error de nivel becario.

La arquitectura filtrada en sí también es suficiente para impactar: una capa de herramientas compuesta por más de cuarenta módulos funcionales, que cubre desde lectura y escritura de archivos, ejecución de Bash hasta la generación de sub-Agents; un núcleo de razonamiento QueryEngine.ts con casi 50.000 líneas que se encarga de la orquestación de la cadena de pensamiento; además del coordinador de orquestación multiagente y un módulo puente con el IDE.

Además, la cantidad de funciones no publicadas que los desarrolladores han desenterrado del código fuente es asombrosa.

De entre todas las funciones ocultas filtradas, el proyecto con código BUDDY es el que más conversación genera. El usuario @baanditeagle pegó en la sección de comentarios del post original de Chaofan Shou capturas de BUDDY, y eso hizo que toda la discusión se desbordara.

Imagina esa escena: estás escribiendo código en una terminal con fondo negro y letras blancas; de pronto, junto al cuadro de entrada aparece una burbuja de diálogo con estética de píxeles, y dentro vive una mascota ciberpunk exclusiva para ti. Sus ajustes son tremendamente detallados:

Esto, en cierta medida, recuerda al “enganche de los ojos grandes” (Clippy) que molestaba de Microsoft Office en aquellos años. Pero BUDDY puede decirse que es su versión definitiva, la evolución final.

Lo interesante es que el código fuente muestra que originalmente esta función estaba planeada para prepararse como “huevo de pascua” del 1 al 7 de abril, y que en mayo primero se probaría internamente con empleados de Anthropic. Pero ahora, todo el mundo conoce este regalo con antelación.

Una IA que sueña, y el equipo de Anthropic que no puede dormir

Si BUDDY es un huevo de pascua romántico para ingenieros, entonces la función con código KAIROS deja totalmente al descubierto las ambiciones de Anthropic en la ruta hacia la AGI.

Ahora mismo, cuando hablamos con modelos de gran tamaño, básicamente es “lee y quema”. Cierras la página, abres una conversación nueva y todo empieza desde cero. KAIROS quiere romper ese panorama; se define como «Always-On Claude (Claude siempre en línea)».

Esto no es solo un repositorio de memoria para textos largos. KAIROS puede mantener recuerdos continuos entre distintas sesiones, guardando tus hábitos de trabajo y el contexto de tus proyectos en un directorio privado. Incluso tiene permisos para iniciar tareas de forma proactiva.

Además, en el código existe un mecanismo nuevo llamado Nightly Dreaming (soñar por la noche).

¿Cómo entenderlo? En los mecanismos fisiológicos humanos, durante el sueño, “soñar” es un proceso clave mediante el cual el cerebro reorganiza fragmentos de memoria del día, elimina sinapsis inútiles y consolida información importante.

Anthropic lleva este concepto bio-inspirado al mundo de la IA. Para evitar que los registros de memoria a largo plazo crezcan indefinidamente, causando confusión lógica, KAIROS inicia automáticamente un proceso de “soñar” durante la noche. Incluso en el código se manejan en detalle los problemas de marcas de tiempo al cruzar la medianoche, asegurando que el proceso de soñar no se interrumpa.

Concretamente, en ese proceso, Claude retrocede en segundo plano tus interacciones de ese día como si fuera el cerebro humano, elimina información redundante y consolida el contenido clave como memoria a largo plazo.

La IA te ayuda a escribir código durante el día, y cuando tú duermes por la noche, ella se queda “soñando” sola en los servidores para conocerte mejor. Convertir un problema de ingeniería frío y duro (compresión y recuperación de la ventana de contexto) en una solución llena de metáforas vivas es, de hecho, una idea de producto que llama la atención.

Además de BUDDY y KAIROS, el código fuente esconde todavía más cosas:

Se puede decir que, mientras otros grandes modelos todavía se dedican a batallar por puntuaciones y por efectos multimodales, Anthropic ya ha intentado, en la capa más baja del sistema, construir en silencio todo un “ecosistema de empleados digitales”: con memoria (KAIROS), con capacidad de planificación (ULTRAPLAN), con colaboración en equipo (Coordinator), e incluso con acompañamiento emocional (BUDDY).

Si no hay contratiempos, los trabajadores de Anthropic probablemente estén pasando una noche sin dormir. El Token Bug todavía no se ha resuelto y, además, llegó una filtración de código fuente de nivel épico; para cualquier empresa tecnológica, eso es una catástrofe.

Pero esta catástrofe también provoca una gran cantidad de reflexiones.

En una industria de IA cada vez más repleta de promesas en PPT, lanzamientos de futuros y competencia cada vez más homogénea, Anthropic, de la forma más incómoda y poco digna posible, le ha mostrado al mundo lo vanguardista que es lo que realmente están haciendo.

Por supuesto, también hay quienes ven un problema más profundo. El usuario @QiyangYao escribió en los comentarios:

Tras el aparente accidente cómico de ingeniería, hay una brecha sistémica en la gestión de seguridad de esta compañía top de IA. Anthropic gastó decenas de miles de millones de dólares investigando un problema definitivo: cómo hacer que la IA se parezca más a los humanos. Este incidente de filtración ofrece una respuesta inesperada: no hace falta correr; primero hay que hacer que los humanos se parezcan más a la IA.

Por ejemplo, aprender a ejecutar automáticamente una lista de verificación antes de publicar.

Gran cantidad de información y análisis precisos: todo en la app de Sina Finance

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado