Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
No es broma, se filtró el código fuente de Claude Code, se expusieron 500,000 líneas de código
(Fuente: Ai Faner)
El mundo es un gigantesco equipo de rodaje improvisado.
Esta tarde, el desarrollador Chaofan Shou publicó un tuit en el que soltó directamente el paquete comprimido completo con el código fuente del último tool de línea de comandos de Anthropic, Claude Code, llamado src.zip.
Ese tuit explotó rápidamente en la comunidad de desarrolladores; en pocas horas, las visualizaciones superaron los 5,3 millones.
El área de comentarios se llenó al instante de actividad. El usuario @ai_for_success solo dijo una frase: «¡Llamen ya a Dario!» (Dario Amodei es el CEO de Anthropic);
Un internauta soltó directamente una maldición: «¡A la mierda con esto!». Otro desarrollador, @realsigridjin, actuó aún más rápido: ya hizo una copia de seguridad del código filtrado en GitHub. El nombre del repositorio es instructkr/claude-code, y está marcado como «Claude Code Snapshot for Research».
Es decir, aunque Anthropic eliminara con urgencia los archivos originales, el código ya está guardado de forma permanente en la comunidad de código abierto. Esta filtración tiene una magnitud realmente impactante: casi 2.000 archivos, más de 500.000 líneas de código TypeScript, todo expuesto en internet sin protección.
▲Adjunto la dirección
Pero, siendo una de esas grandes “unicornios” de IA, ¿cómo se filtró su código central? La respuesta, al decirla, provoca risa y llanto a la vez: al empaquetar y publicarlo en npm, olvidaron borrar los archivos .map.
Sin embargo, cuando los desarrolladores de todo el mundo se lanzan en masa hacia esta base de código, resulta difícil no sentir asombro, porque en esta porción de código que no debía hacerse pública, además del código fuente de Claude Code, Anthropic oculta todo un conjunto de planos de IA tan románticos como ultrarigidos:
hay mascotas ciberpunk que te acompañan a escribir código en la terminal; y hay también asistentes de IA residentes que, a medianoche, “soñan” por su cuenta para organizar recuerdos.
Una catástrofe épica de relaciones públicas se convirtió, a la fuerza, en una “presentación en vivo” salvaje que sacudió la industria.
Un error infantil que reveló el secreto de Claude Code
Antes de hablar de esas funciones futuras que emocionan, primero hay que ver qué tan desordenados están ahora en Anthropic.
Si usaste recientemente la API de Claude, es muy probable que te hayas topado con un problema extraño: tus límites de uso caen a una velocidad completamente anormal, como si un baño con goteras se vaciara sin parar. Por el momento, la propia oficial de Anthropic sigue ocupada a toda prisa investigando el bug que hace que el consumo de tokens se dispare.
Para colmo, el Token Bug todavía no estaba arreglado cuando ya les sacaron los pantalones.
Esta vez el culpable fue el archivo .map (Source Map), que es bien conocido por desarrolladores de frontend y de Node.js.
Su función es mapear el código de producción comprimido y ofuscado de vuelta al código fuente original, para facilitar la depuración local de los desarrolladores. Pero cuando se publica formalmente en un repositorio público como npm, borrar el .map está en la primera página de cualquier tutorial básico para principiantes.
Sin embargo, Anthropic, que siempre lleva en la boca que “seguridad y cautela” son lo primero, en realidad cometió un error de nivel becario.
La arquitectura filtrada en sí también es suficiente para impactar: una capa de herramientas compuesta por más de cuarenta módulos funcionales, que cubre desde lectura y escritura de archivos, ejecución de Bash hasta la generación de sub-Agents; un núcleo de razonamiento QueryEngine.ts con casi 50.000 líneas que se encarga de la orquestación de la cadena de pensamiento; además del coordinador de orquestación multiagente y un módulo puente con el IDE.
Además, la cantidad de funciones no publicadas que los desarrolladores han desenterrado del código fuente es asombrosa.
De entre todas las funciones ocultas filtradas, el proyecto con código BUDDY es el que más conversación genera. El usuario @baanditeagle pegó en la sección de comentarios del post original de Chaofan Shou capturas de BUDDY, y eso hizo que toda la discusión se desbordara.
Imagina esa escena: estás escribiendo código en una terminal con fondo negro y letras blancas; de pronto, junto al cuadro de entrada aparece una burbuja de diálogo con estética de píxeles, y dentro vive una mascota ciberpunk exclusiva para ti. Sus ajustes son tremendamente detallados:
Esto, en cierta medida, recuerda al “enganche de los ojos grandes” (Clippy) que molestaba de Microsoft Office en aquellos años. Pero BUDDY puede decirse que es su versión definitiva, la evolución final.
Lo interesante es que el código fuente muestra que originalmente esta función estaba planeada para prepararse como “huevo de pascua” del 1 al 7 de abril, y que en mayo primero se probaría internamente con empleados de Anthropic. Pero ahora, todo el mundo conoce este regalo con antelación.
Una IA que sueña, y el equipo de Anthropic que no puede dormir
Si BUDDY es un huevo de pascua romántico para ingenieros, entonces la función con código KAIROS deja totalmente al descubierto las ambiciones de Anthropic en la ruta hacia la AGI.
Ahora mismo, cuando hablamos con modelos de gran tamaño, básicamente es “lee y quema”. Cierras la página, abres una conversación nueva y todo empieza desde cero. KAIROS quiere romper ese panorama; se define como «Always-On Claude (Claude siempre en línea)».
Esto no es solo un repositorio de memoria para textos largos. KAIROS puede mantener recuerdos continuos entre distintas sesiones, guardando tus hábitos de trabajo y el contexto de tus proyectos en un directorio privado. Incluso tiene permisos para iniciar tareas de forma proactiva.
Además, en el código existe un mecanismo nuevo llamado Nightly Dreaming (soñar por la noche).
¿Cómo entenderlo? En los mecanismos fisiológicos humanos, durante el sueño, “soñar” es un proceso clave mediante el cual el cerebro reorganiza fragmentos de memoria del día, elimina sinapsis inútiles y consolida información importante.
Anthropic lleva este concepto bio-inspirado al mundo de la IA. Para evitar que los registros de memoria a largo plazo crezcan indefinidamente, causando confusión lógica, KAIROS inicia automáticamente un proceso de “soñar” durante la noche. Incluso en el código se manejan en detalle los problemas de marcas de tiempo al cruzar la medianoche, asegurando que el proceso de soñar no se interrumpa.
Concretamente, en ese proceso, Claude retrocede en segundo plano tus interacciones de ese día como si fuera el cerebro humano, elimina información redundante y consolida el contenido clave como memoria a largo plazo.
La IA te ayuda a escribir código durante el día, y cuando tú duermes por la noche, ella se queda “soñando” sola en los servidores para conocerte mejor. Convertir un problema de ingeniería frío y duro (compresión y recuperación de la ventana de contexto) en una solución llena de metáforas vivas es, de hecho, una idea de producto que llama la atención.
Además de BUDDY y KAIROS, el código fuente esconde todavía más cosas:
Se puede decir que, mientras otros grandes modelos todavía se dedican a batallar por puntuaciones y por efectos multimodales, Anthropic ya ha intentado, en la capa más baja del sistema, construir en silencio todo un “ecosistema de empleados digitales”: con memoria (KAIROS), con capacidad de planificación (ULTRAPLAN), con colaboración en equipo (Coordinator), e incluso con acompañamiento emocional (BUDDY).
Si no hay contratiempos, los trabajadores de Anthropic probablemente estén pasando una noche sin dormir. El Token Bug todavía no se ha resuelto y, además, llegó una filtración de código fuente de nivel épico; para cualquier empresa tecnológica, eso es una catástrofe.
Pero esta catástrofe también provoca una gran cantidad de reflexiones.
En una industria de IA cada vez más repleta de promesas en PPT, lanzamientos de futuros y competencia cada vez más homogénea, Anthropic, de la forma más incómoda y poco digna posible, le ha mostrado al mundo lo vanguardista que es lo que realmente están haciendo.
Por supuesto, también hay quienes ven un problema más profundo. El usuario @QiyangYao escribió en los comentarios:
Tras el aparente accidente cómico de ingeniería, hay una brecha sistémica en la gestión de seguridad de esta compañía top de IA. Anthropic gastó decenas de miles de millones de dólares investigando un problema definitivo: cómo hacer que la IA se parezca más a los humanos. Este incidente de filtración ofrece una respuesta inesperada: no hace falta correr; primero hay que hacer que los humanos se parezcan más a la IA.
Por ejemplo, aprender a ejecutar automáticamente una lista de verificación antes de publicar.
Gran cantidad de información y análisis precisos: todo en la app de Sina Finance