Пользователи Claude Code достигают лимитов использования «гораздо быстрее, чем ожидалось»

Claude Code: пользователи сталкиваются с лимитами использования «намного быстрее, чем ожидалось»

2 дня назад

ПоделитьсяСохранить

Добавить как предпочтительное в Google

Richard MorrisТехнологический репортёр

Getty Images

Anthropic заявила, что работает над устранением проблемы, которая блокирует пользователей ее инструмента для ИИ-кодинга.

Claude Code, ИИ-помощник для написания компьютерного кода, стал популярен в последние месяцы.

Компания объявила в Reddit, что расследует проблему, из-за которой лимиты использования достигаются быстрее, чем ожидалось.

Клиенты покупают токены для использования ИИ-услуг — но количество токенов, необходимых для каждой задачи, иногда бывает неочевидным.

Anthropic заявила, что исправление этого — «главный приоритет» для команды.

Пользователи Claude оставляли комментарии под этим постом в Reddit, и один пользователь сказал, что достигает лимита токенов «гораздо позже» на своей бесплатной учетной записи по сравнению со своей платной учетной записью за $100 (£75) в месяц.

Другой пользователь, рассказывая о багах, которые могут возникать в сгенерированном коде, прокомментировал: «Одна сессия в цикле может разом истощить ваш дневной бюджет за считанные минуты».

А в одном из комментариев говорилось, что проблема затрагивает не только Claude Code: «Простой ответ в одну фразу на разговор занял у меня путь от 59% использования до 100%. Как??»

Прошлой неделе Anthropic также ввела ограничение скорости в пиковые часы для своих сервисов на Claude: это означает, что токены будут расходоваться быстрее, когда спрос на услугу выше.

Разработчики ПО могут использовать Claude Code и другие подобные приложения в рамках своего ежедневного рабочего процесса, чтобы помогать с конкретными задачами. Любые проблемы с сервисом могут нарушить их работу.

Подписка Claude Pro стоит $20 в месяц. Повышение уровней при более высоком использовании может стоить $100 или даже $200 в месяц. Компания также предлагает тарифы для бизнеса для более крупных организаций.

Anthropic недавно по ошибке опубликовала часть своего внутреннего исходного кода для Claude Code из‑за «человеческой ошибки».

Внутренний файл с 500,000 строками кода был опубликован на GitHub — популярной платформе для разработчиков.

Представитель Anthropic заявил, что утечка произошла из‑за «человеческой ошибки, а не нарушения безопасности», и что «никакие конфиденциальные данные клиентов или учетные данные не были раскрыты или задействованы».

Исходный код Claude Code уже был частично известен, поскольку ранее его независимо восстановили с помощью reverse engineering разработчики. Более ранняя версия исходного кода также была слита в феврале 2025 года.

Сейчас Anthropic ведет судебную тяжбу с правительством США о том, как ее инструменты могут использоваться Министерством обороны.

ИИ-компания Anthropic ищет эксперта по вооружениям, чтобы остановить пользователей от «злоупотреблений»

Судья отклонил попытку Пентагона «обезвредить» Anthropic

ИИ-система прибегает к шантажу, если ей сказать, что ее удалят

Подпишитесь на нашу рассылку Tech Decoded, чтобы следить за главными технологическими историями и трендами в мире. За пределами Великобритании? Подпишитесь здесь.

Искусственный интеллект

Компьютерное программирование

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить