Al realizar un análisis inverso de Claude Code, se han descubierto dos errores de caché que pueden aumentar silenciosamente el costo de la API entre 10 y 20 veces

robot
Generación de resúmenes en curso

Noticias de Crypto界网: según el monitoreo de 1M AI News, un desarrollador desensambló mediante ingeniería inversa la versión instalable independiente de Claude Code, un binario de 228MB, usando Ghidra, un proxy MITM y radare2; descubrió dos bugs de caché independientes que pueden elevar el costo de la API entre 10 y 20 veces sin que los usuarios lo sepan. Un análisis relacionado se envió a GitHub (issue #40524), donde Anthropic lo marcó como un bug regresivo y lo asignó para su tratamiento. El primer bug está en el runtime Bun personalizado que usa la versión instalable independiente. En cada solicitud a la API, el runtime busca un identificador de facturación dentro del cuerpo de la solicitud y lo reemplaza, pero la lógica de reemplazo hace match con la primera coincidencia dentro del cuerpo de la solicitud. Si el historial de la conversación contiene exactamente esa cadena (por ejemplo, si se habló del mecanismo interno de facturación de Claude Code), el reemplazo coincide con el contenido del mensaje en lugar del prompt de sistema, lo que hace que cada solicitud active la reconstrucción completa de la caché. La solución de contingencia es cambiar a ejecutar npx @anthropic-ai/claude-code; la versión del paquete npm no incluye esta lógica de reemplazo. El segundo bug afecta a todos los usuarios que restablecen sesiones mediante --resume o --continue, e introducido desde v2.1.69. Al restaurar una sesión, la posición en la que se inyecta la información adicional del sistema es diferente a la de una sesión nueva, lo que provoca que el prefijo de caché no coincida por completo: toda la historia de la conversación pasa de leerse desde caché a reescribirse por completo. Las rondas posteriores de restauración funcionan con normalidad, pero la operación de restauración en sí ya genera un gran costo adicional; por el momento no existe una solución de evasión externa. El desarrollador estima que, para una conversación larga de aproximadamente 500,000 tokens, el Bug 1 consume adicionalmente unos 0.04 dólares por solicitud, y el Bug 2 consume adicionalmente unos 0.15 dólares por restauración; sumados, el costo por solicitud puede superar 0.20 dólares. Anteriormente, la ingeniera de Anthropic Lydia Hallie ya había confirmado que la velocidad con la que los usuarios alcanzan el límite de uso es «mucho más rápida de lo esperado»; varios usuarios en la sección de comentarios de Reddit creen que estos dos bugs de caché podrían ser una de las razones fundamentales del consumo anómalo de uso.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado