Anthropic revela su código fuente y emite más de 8000 solicitudes de retirada de derechos de autor, la imagen de "seguridad ante todo" enfrenta su semana más incómoda

Con su marca central centrada en la «Seguridad de la IA», Anthropic está atravesando la peor semana desde su fundación.

Autor: Shenchao TechFlow

Anthropic, debido a un error de configuración al publicar un paquete npm, publicó accidentalmente todo el código fuente del producto más rentable de la compañía, Claude Code. Unas 512.000 líneas de código TypeScript fueron replicadas en cuestión de horas por decenas de miles de desarrolladores, desensambladas y reescritas por IA en versiones de Python y Rust. Anthropic envió de inmediato a GitHub una solicitud de retirada de derechos de autor DMCA, que afectó a unos 8100 repositorios de código, pero al provocar un impacto colateral sobre numerosos proyectos no relacionados, la comunidad reaccionó con fuerza; finalmente, la empresa se vio obligada a retirar la gran mayoría de las solicitudes y solo conservar la retirada para 1 repositorio y 96 bifurcaciones. Se trata del segundo gran incidente de filtración de Anthropic en una semana; solo han pasado cinco días desde la filtración de información del modelo Mythos.

Con su marca central centrada en la «Seguridad de la IA», Anthropic está atravesando la peor semana desde su fundación.

Según un informe del Wall Street Journal del 1 de abril, Anthropic, en una actualización rutinaria el 31 de marzo, debido a un error humano durante el proceso de compilación, publicó el código fuente completo de Claude Code junto con el paquete npm. Un investigador de seguridad, Chaofan Shou, publicó en la plataforma X un enlace de descarga a las 4:23 a. m. hora de la costa este. En minutos, las visitas al post superaron rápidamente los 21 millones. En cuestión de horas, el código se replicó en GitHub y recibió decenas de miles de estrellas; incluso, un desarrollador coreano, Sigrid Jin, reescribió todo el repositorio con una herramienta de IA antes de que amaneciera, en formato Python. El proyecto logró 50.000 estrellas de GitHub en dos horas y, muy probablemente, estableció el récord de crecimiento más rápido en la historia de esa plataforma.

Un portavoz de Anthropic confirmó el hecho de la filtración a CNBC y dijo: «Se trata de un problema de empaquetado y publicación causado por un error humano, no de una vulnerabilidad de seguridad. No se vio afectado ni expuesto ningún dato o credencial de clientes sensibles».

Un ítem de configuración faltante filtró 512.000 líneas de código central

Las razones técnicas de la filtración no son complicadas. Claude Code se construye sobre Bun (una herramienta de runtime de JavaScript adquirida por Anthropic a finales de 2025). Por defecto, Bun genera archivos source map de depuración. El equipo de publicación, al subir el paquete a npm, no excluyó ese archivo en la configuración .npmignore, lo que hizo que un archivo de source map de 59,8 MB se publicara junto con la versión Claude Code 2.1.88. Ese archivo contiene el contenido completo de aproximadamente 1.900 archivos fuente de TypeScript, totalizando unas 512.000 líneas de código. El contenido es legible, con comentarios, y no está sometido a ninguna ofuscación.

El responsable de Claude Code, Boris Cherny, admitió: «Nuestro proceso de despliegue tiene algunos pasos manuales; en uno de ellos no se ejecutó correctamente». Agregó que el equipo ya corrigió el problema y está incorporando más comprobaciones de automatización, y enfatizó que este tipo de error apunta a problemas de proceso o infraestructura, no a la responsabilidad de una persona.

Esto no es la primera vez. En febrero de 2025, una filtración de source map casi idéntica expuso el código fuente de una versión temprana de Claude Code. La misma clase de incidentes se repitió durante 13 meses, lo que generó dudas sobre la madurez operativa de esta empresa, valorada en aproximadamente 38.000 millones de dólares y que se está preparando para un IPO.

Qué descubrieron los desarrolladores en el código filtrado

El repositorio filtrado equivale a una hoja de ruta de producto que Anthropic nunca planeó publicar. Según análisis de VentureBeat y varios desarrolladores, el código incluye 44 interruptores de funciones (feature flag), de los cuales más de 20 corresponden a funciones ya desarrolladas pero aún no publicadas.

Entre lo más destacable se encuentran: un modo de proceso de guardián autónomo llamado «KAIROS», que permite que Claude Code trabaje como un agente inteligente que corre continuamente en segundo plano cuando el usuario está ocioso; puede reparar errores de manera periódica, ejecutar tareas y enviar notificaciones push al usuario. También hay una arquitectura de «memoria auto-curativa» en tres capas, a través de un proceso de integración de memoria llamado «dreaming», que fusiona en segundo plano observaciones dispersas y elimina contradicciones lógicas. Además, existe un sistema completo de coordinación multiagente que puede transformar Claude Code de un único agente en un coordinador capaz de generar, dirigir y gestionar múltiples agentes de trabajo en paralelo.

El hallazgo que más controversia generó es un archivo llamado undercover.ts. De acuerdo con The Hacker News, ese archivo tiene aproximadamente 90 líneas de código y, cuando empleados de Anthropic usan Claude Code para enviar código a proyectos de código abierto, inyecta indicaciones del sistema que ordenan que Claude nunca revele que es IA, y elimina todas las marcas de atribución de Co-Authored-By. El código dice: «Estás realizando una tarea encubierta en un repositorio público/de código abierto. Tu mensaje de commit, el título de tu PR y el cuerpo de tu PR no deben contener ninguna información interna de Anthropic. No reveles tu identidad».

Además, el código incluye una marca ANTI_DISTILLATION_CC que inyecta definiciones de herramientas falsificadas en las solicitudes a la API, con el objetivo de contaminar los datos de entrenamiento que los competidores podrían interceptar. En el código también aparecen códigos internos de modelos de Anthropic: Capybara corresponde a un nuevo nivel de modelo que aún no se ha lanzado; Fennec corresponde al Opus 4.6 existente. Esto coincide con la filtración de información del modelo Mythos ocurrida hace cinco días, causada por un error de configuración en el CMS de Anthropic.

El fundador de la empresa de ciberseguridad Code Wall, Paul Price, declaró a Business Insider que esta filtración «más que causar un daño real, resulta embarazosa. Lo verdaderamente valioso es el peso de los modelos internos, que no se filtraron». Pero también señaló que Claude Code es «una de las arquitecturas de herramientas de agentes inteligentes mejor diseñadas actualmente; ahora podemos ver cómo resuelven esos problemas difíciles», y que eso tiene un claro valor de inteligencia para los competidores.

8100 repositorios quedaron bloqueados por error; la retirada DMCA «se complica» y provoca una reacción aún mayor

Tras la difusión del código, Anthropic envió rápidamente a GitHub una solicitud de retirada de derechos de autor basada en la Ley de Derechos de Autor del Milenio Digital de Estados Unidos (DMCA). Según registros públicos de GitHub, la solicitud inicialmente afectó a aproximadamente 8100 repositorios de código. El problema fue que los repositorios retirados no solo incluían réplicas del código filtrado, sino también bifurcaciones legales del repositorio oficial de Claude Code que Anthropic había publicado públicamente.

Numerosos desarrolladores expresaron su indignación en la plataforma X. El desarrollador Danila Poyarkov informó que, solo por haber bifurcado el repositorio público de Anthropic, recibió una notificación de retirada. Otro usuario, Daniel San, mostró un correo de GitHub que indicaba que el repositorio retirado solo contenía ejemplos de habilidades y documentación, sin relación con el código filtrado. Un desarrollador lo resumió de forma contundente: «Los abogados de Anthropic se despertaron y, de inmediato, retiraron mi repositorio».

Ante la reacción de la comunidad, el 1 de abril Anthropic retiró parcialmente las solicitudes. Según los registros de retirada en GitHub, Anthropic redujo el alcance de las retiradas a 1 repositorio (nirholas/claude-code) y a las 96 URLs de bifurcación listadas por separado en la notificación original; el acceso a los restantes aproximadamente 8000 repositorios fue restablecido por GitHub.

Un portavoz de Anthropic declaró a TechCrunch: «Los repositorios especificados en la notificación pertenecen a una red de bifurcaciones conectada a nuestro repositorio público de Claude Code, por lo que las retiradas afectaron a repositorios fuera de lo previsto. Hemos retirado todas las notificaciones excepto la de un repositorio; GitHub ya restauró el acceso a las bifurcaciones afectadas».

El código queda archivado permanentemente en plataformas descentralizadas; la eficacia del DMCA es limitada

La acción de retirada de derechos de autor de Anthropic se enfrenta a un dilema fundamental: el código ya no puede recuperarse.

De acuerdo con un informe de Decrypt, la plataforma descentralizada de Git, Gitlawb, ya ha replicado el código fuente original completo, con la nota de que «nunca será retirado». El DMCA es efectivo para plataformas centralizadas (como GitHub), porque estas deben cumplir la ley; pero no puede aplicarse a infraestructura descentralizada. En cuestión de horas tras la filtración, el código ya se había hecho efectivamente público de forma permanente mediante un número suficiente de réplicas y distintos tipos de infraestructura.

Con aún más ironía, el desarrollador coreano Sigrid Jin reescribió todo el repositorio de TypeScript a Python mediante una herramienta de orquestación con IA, oh-my-codex. El nombre del proyecto es claw-code. Gergely Orosz, fundador de The Pragmatic Engineer, señaló en X que esto es una «reescritura en sala limpia» (clean-room rewrite), que constituye una obra creativa independiente y, por diseño, es algo que el DMCA no puede alcanzar. Si Anthropic sostiene que el código reescrito por IA sigue infringiendo derechos, eso justamente debilitaría la lógica central de defensa de las empresas de IA en demandas por derechos de autor de datos de entrenamiento: que la IA produce salidas razonables a partir de entradas protegidas por copyright.

El incómodo posicionamiento de derechos de autor: ¿se contradice o es un requisito legal?

La mayor tensión que generó la atención de la comunidad en este caso proviene de la contradicción en la postura sobre derechos de autor. En septiembre de 2025, un tribunal condenó a Anthropic a indemnizar 1.500 millones de dólares por usar libros pirata y entrenar Claude con bibliotecas de sombras. En junio de 2025, Reddit demandó a Anthropic por capturar contenido generado por usuarios sin autorización para entrenar modelos. Una empresa que está metida en múltiples demandas por problemas de copyright de datos de entrenamiento, al volverse y usar la ley de copyright para proteger su propio código, era algo que la comunidad podía anticipar.

Un comentario con mucho apoyo en Slashdot resumió directamente esa sensación: «‘Lo que publicamos para ganar dinero usando cosas robadas, ¿cómo se atreven a robarnos?’—esa es la postura». Otro usuario consideró que, desde la perspectiva de estrategia legal, la acción DMCA no carece de sentido: «Si Anthropic en el futuro quiere exigir responsabilidades a otras compañías por usar su código, y ni siquiera intentó hacer que los distribuidores lo retiraran, entonces no tiene sentido decirlo en un tribunal».

Esta controversia también se relaciona con un problema legal de vanguardia: la titularidad de los derechos de autor del código generado por IA. Según divulgaciones públicas previas de Gartner y Anthropic, alrededor del 90% del código de Claude Code lo genera la IA. En marzo de 2025, un tribunal federal de EE. UU. dictaminó que las obras generadas por IA no reciben protección de copyright por falta de autoría humana; la Corte Suprema, en marzo de 2026, se negó a admitir la apelación. Si la mayor parte del código de Claude Code realmente fue escrito por Claude por sí mismo, la afirmación de derechos de autor de Anthropic tendría una incertidumbre sustancial a nivel legal.

Dos filtraciones en una semana: alerta de seguridad operativa previa al IPO

Esta filtración de código fuente ocurrió solo cinco días después del último incidente de filtración de Anthropic. El 26 de marzo, la revista Fortune informó que Anthropic, debido a un error de configuración en su sistema de gestión de contenidos, expuso en una caché de datos pública y buscable cerca de 3000 documentos internos no publicados, que incluían información detallada del modelo Claude Mythos que estaba por lanzarse. Ambos incidentes se atribuyeron a «errores humanos».

Los momentos de estos hechos son sensibles. En febrero de 2026, Anthropic completó una ronda G de 30.000 millones de dólares con una valoración de 38.000 millones de dólares, y según reportes se estaba preparando para un IPO como muy temprano en octubre de 2026, con un tamaño de financiación esperado que podría superar los 60.000 millones de dólares. Goldman Sachs, JPMorgan y Morgan Stanley ya han iniciado contactos en etapas tempranas. Los ingresos anualizados de Claude Code ya superan los 2.500 millones de dólares, lo que lo convierte en el motor de ingresos más importante de la compañía. TechCrunch señaló que, para una empresa que se prepara para cotizar, que se filtre el código fuente significa casi inevitablemente enfrentar demandas de accionistas.

En el análisis del incidente, VentureBeat planteó un problema más punzante: Anthropic tuvo una docena de incidentes en marzo, pero solo publicó un informe posterior a posteriori; el tiempo en que los sistemas de monitoreo de terceros detectaron fallas fue 15 a 30 minutos antes que el propio estado de la compañía en su página de estado. Para una empresa que va camino a los mercados públicos con una valoración de 38.000 millones de dólares, si su transparencia operativa y su madurez están a la altura de esa valoración, los inversores tendrán que evaluarlo por su cuenta.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado