Los usuarios de Claude Code alcanzan los límites de uso 'mucho más rápido de lo esperado'

Los usuarios de Claude Code están alcanzando los límites de uso “mucho más rápido de lo esperado”

Hace 2 días

CompartirGuardar

Agregar como preferido en Google

Richard MorrisCorresponsal tecnológico

Getty Images

Anthropic dice que está intentando resolver un problema que está bloqueando a los usuarios de su herramienta de codificación con IA.

Claude Code, el asistente de IA para escribir código de computadora, se ha vuelto popular en los últimos meses.

La compañía anunció en Reddit que estaba investigando un problema en el que los límites de uso se estaban alcanzando más rápido de lo esperado.

Los clientes compran tokens para usar servicios de IA, pero a veces la cantidad de tokens necesarios para cada tarea es opaca.

Anthropic dijo que arreglar esto era la “prioridad máxima” para el equipo.

Los usuarios de Claude comentaron en la publicación de Reddit, y uno dijo que alcanzó el límite de tokens “mucho más tarde” en su cuenta gratuita en comparación con su cuenta de pago de $100 (£75) al mes.

Otro usuario, hablando de errores que pueden formarse en el código creado, comentó “Una sesión en un bucle puede vaciar tu presupuesto diario en minutos”.

Y otro comentario indicó que el impacto no era solo en Claude Code, diciendo: “Una respuesta simple de una sola frase a una conversación me llevó del 59% al 100%. ¿Cómo??”

Justo la semana pasada, Anthropic introdujo el limitador por hora punta en sus servicios de Claude, lo que significa que los tokens se consumirán más rápido cuando la demanda del servicio sea mayor.

Los desarrolladores de software pueden usar Claude Code y otras aplicaciones similares como parte de su flujo de trabajo diario para ayudar con tareas específicas. Cualquier problema con el servicio puede interrumpir su trabajo.

Una suscripción a Claude Pro cuesta $20 al mes para los usuarios. Aumentar los niveles para un uso más alto puede costar $100 o incluso $200 al mes. La empresa también ofrece precios para empresas para organizaciones más grandes.

Anthropic lanzó recientemente, por accidente, una parte de su código fuente interno para Claude Code debido a “error humano”.

Se publicó en GitHub, una plataforma popular para desarrolladores, un archivo interno con 500.000 líneas de código.

Un portavoz de Anthropic dijo que la publicación se debió a “error humano, no a una brecha de seguridad”, y que “no se expusieron ni intervinieron datos sensibles de clientes ni credenciales”.

El código fuente de Claude Code ya era parcialmente conocido, ya que antes fue sometido a ingeniería inversa por desarrolladores independientes. También se filtró en febrero de 2025 una versión anterior del código fuente.

Anthropic está actualmente en una batalla legal con el gobierno de EE. UU. sobre cómo sus herramientas pueden ser usadas por el Departamento de Defensa.

La empresa de IA Anthropic busca un experto en armas para detener a los usuarios por ‘mal uso’

El juez rechaza el intento del Pentágono de ‘incapacitar’ a Anthropic

Un sistema de IA recurre al chantaje si se le dice que lo van a eliminar

Suscríbete a nuestro boletín de Tech Decoded para seguir las principales historias tecnológicas y tendencias del mundo. ¿Fuera del Reino Unido? Suscríbete aquí.

Inteligencia artificial

Programación de computadoras

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado