Claude Codeのユーザーは、予想以上に早く使用制限に達しています

Claude Codeのユーザーが「予想よりもずっと速く」利用制限に到達

2日前

ShareSave

Googleで優先に追加

リチャード・モリス テクノロジー・リポーター

Getty Images

Anthropicは、AIコーディングツールのユーザーを妨げている問題の解決に取り組んでいるとしています。

Claude Codeは、コンピューターコードを書くためのAI搭載の支援ツールで、ここ数か月で人気が高まっています。

同社はRedditで、利用制限が想定よりも速く発生している問題を調査していると発表しました。

顧客はAIサービスを利用するためのトークンを購入しますが、各タスクに必要なトークン量が分かりにくい場合があります。

Anthropicは、これを直すことがチームにとって「最優先事項」だと述べました。

ClaudeのユーザーはRedditの投稿の下でコメントし、あるユーザーは、月額$100(£75)を支払う有料アカウントと比べて、無料アカウントではトークン上限に「はるかに後になって」到達したと語りました。

別のユーザーは、作られるコードの中で発生し得るバグについて述べ、「ループの中の1つのセッションで、1日の予算が数分で底をつくことがあります」とコメントしました。

さらに別のコメントでは、その影響はClaude Codeだけではないとし、「会話へのたった1文の返信で、使用率が59%から100%になりました。どうして??」と述べました。

ちょうど先週、AnthropicはClaudeでピーク時間帯のスロットリング(抑制)を導入しました。つまり、サービスへの需要が高いとトークンがより速く消費されます。

ソフトウェア開発者は、日々の業務フローの一部としてClaude Codeや同様のアプリを使い、特定のタスクを支援してもらうことができます。サービスに問題があると、作業が妨げられます。

Claude Proのサブスクリプションは、ユーザーに月$20の費用がかかります。使用量が多い上位プランに引き上げると、月$100、さらには$200かかる場合があります。同社は、より大規模な組織向けにもビジネス価格を提供しています。

Anthropicは最近、いわゆる「ヒューマンエラー」により、Claude Codeの内部ソースコードの一部を誤って公開してしまいました。

開発者向けの人気プラットフォームであるGitHubに、コード行数80億行の内部ファイルが公開されました。

Anthropicの広報担当者は、そのリリースは「セキュリティ侵害ではなくヒューマンエラー」によるものだとし、「機密の顧客データや資格情報は公開も関与もしていない」と述べました。

Claude Codeのソースコードはすでに一部知られていました。というのも、以前に独立した開発者によって逆アセンブルされていたからです。ソースコードの以前のバージョンも、2025年2月に漏えいしていました。

Anthropicは現在、国防総省で同社のツールがどのように使用できるかをめぐって、米国政府と法的な争いをしています。

AI企業Anthropic、「誤用」からユーザーを止めるための兵器の専門家を求める

裁判官、ペンタゴンによるAnthropicの「無力化」への試みを却下

指示されて削除されると言われると、AIシステムは恐喝に頼る

世界のトップテックのニュースやトレンドを追うため、Tech Decodedニュースレターに登録してください。英国以外?ここから登録してください。

人工知能

コンピュータープログラミング

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン