Пользователи Claude Code достигают лимитов использования «гораздо быстрее, чем ожидалось»

Пользователи Claude Code сталкиваются с лимитами использования «гораздо быстрее, чем ожидалось»

1 час назад

ПоделитьсяСохранить

Добавить в избранное в Google

Ричард МоррисТехнологический обозреватель

Getty Images

Anthropic заявляет, что работает над устранением проблемы, которая блокирует пользователей своего инструмента для ИИ-кодинга.

Claude Code — ИИ-помощник для написания компьютерного кода — стал популярным в последние месяцы.

Компания сообщила на Reddit, что расследует проблему, из-за которой лимиты использования достигались быстрее, чем ожидалось.

Клиенты покупают токены, чтобы пользоваться услугами ИИ — но количество токенов, необходимых для каждой задачи, иногда остается неясным.

В Anthropic сказали, что устранение этой проблемы — «главный приоритет» для команды.

Пользователи Claude прокомментировали пост на Reddit: один из пользователей сообщил, что достигал токен-лимита «намного позже» в своем бесплатном аккаунте по сравнению с платным аккаунтом за $100 (£75) в месяц.

Другой пользователь, рассказывая о багах, которые могут возникать в созданном коде, написал: «Одна сессия в цикле может опустошить ваш ежедневный бюджет за считанные минуты».

А еще один комментарий отметил, что влияние было не только на Claude Code: «Простой ответ одним предложением в рамках разговора перенес меня со значения 59% использования до 100%. Как??»

Совсем недавно Anthropic внедрила ограничение скорости в часы пик для своих сервисов в Claude, то есть токены будут расходоваться быстрее, когда спрос на услугу выше.

Разработчики ПО могут использовать Claude Code и другие подобные приложения в рамках своей повседневной рабочей рутины, чтобы помогать с конкретными задачами. Любые проблемы с сервисом могут нарушить их работу.

Подписка Claude Pro обходится пользователям в $20 в месяц. Повышение тарифов для более высокого использования может стоить $100 или даже $200 в месяц. Компания также предлагает корпоративные цены для крупных организаций.

Недавно Anthropic случайно опубликовала часть своего внутреннего исходного кода для Claude Code из-за «человеческой ошибки».

На GitHub, популярной платформе для разработчиков, был опубликован внутренний файл с 500 000 строк кода.

Представитель Anthropic заявил, что публикация была вызвана «человеческой ошибкой, а не нарушением безопасности», и что «никакие конфиденциальные данные клиентов или учетные данные не были раскрыты и не имели отношения к инциденту».

Исходный код Claude Code был уже частично известен, поскольку ранее его подвергли обратному инжинирингу независимые разработчики. Более ранняя версия исходного кода также была утекшей в феврале 2025 года.

В настоящее время Anthropic ведет судебную тяжбу с правительством США о том, как ее инструменты могут использоваться Министерством обороны.

AI-компания Anthropic ищет эксперта по вооружениям, чтобы остановить пользователей от «злоупотреблений»

Суд отклонил попытку Пентагона «обезвредить» Anthropic

Если ему сказать, что его удалят, ИИ-система прибегает к шантажу

Подпишитесь на нашу рассылку Tech Decoded, чтобы следить за главными технологическими историями и трендами в мире. За пределами Великобритании? Подпишитесь здесь.

Искусственный интеллект

Компьютерное программирование

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить