AnthropicがClaude Codeの制限危機に対応:Opusの使用を避け、100万のコンテキストを閉じることを提案、補償については言及なし

robot
概要作成中

1M AI News のモニタリングによると、Anthropic Claude Code チームのメンバーである Lydia Hallie が、ここ2週間の上限をめぐる論争についての調査結果を公開しました。結論はこうです。ピーク時の上限は確かに締められており、「100万 token のコンテキストの会話」では消費が増える、「これが、あなたが感じている大部分の原因です」。彼女は、チームがいくつかのバグを修正したと述べたものの、「どのバグも過剰請求につながったわけではない」と強調しました。

その後、彼女は節約の提案を示しました:

  1. Pro ユーザーはデフォルトで Opus ではなく Sonnet 4.6 を使うべきです。Opus は消費速度がおよそ2倍だからです
  2. 深い推論が不要なときは推論強度を下げるか、extended thinking をオフにする
  3. 1時間以上放置された長い会話は復元しないで、新しく開き直す
  4. 環境変数 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 を設定して、コンテキストウィンドウのサイズを制限する

いかなる形での上限リセットや補償についても触れられていません。

AI ポッドキャストのホストである Alex Volkov は、この回答を「あなたの持ち方が違う」(You’re holding it wrong) と要約し、Anthropic 自身が 100万のコンテキストをデフォルトに設定し、Opus をフラッグシップモデルとして推している一方で、いまは有料ユーザーにこれらの機能を使わないよう勧めていると指摘しました。彼はまた、OpenAI Codex でユーザーに対して以前同様の問題が起きた後にクォータをリセットしたのとは違い、Anthropic は何も遡及的な補償をしていないとも述べました。

「過剰請求はなかった」という主張は、Claude Code 自身の更新履歴とも相反しています。ちょうどその前日にリリースされた v2.1.90 では、v2.1.69 から存在していたキャッシュの回帰バグが修正されました。–resume によってセッションを復元すると、キャッシュにヒットするはずのリクエストが、完全な prompt cache miss を引き起こし、通常料金で課金されるというものです。このバグは約20のバージョンにまたがってようやく発見され、修正されました。Lydia の回答の中には、この確認済みの課金異常については言及がありません。

3月23日以降、大量の Pro および Max のサブスクユーザーが、上限が異常に速く消費されると報告しています。GitHub issue #41930 には数百件の報告が集まっており、あるユーザーは Max 5x プランのクォータが 1時間以内に使い切られたと言い、別のユーザーは単純な1文の返信だけで使用率が 59% から 100% に引き上げられたと言っています。Anthropic は 3月30日に Reddit 上で「ユーザーが上限に到達する速度が、予想を大幅に上回っている」と認め、すでにチーム内で最優先の事項として扱うと述べていました。

この回答の根本的な問題は、技術的な細部が正確かどうかではなく、それが責任をほぼすべてユーザーの使い方に押し付けている点にあります。Anthropic が売っているのは「最強モデル + 最大コンテキスト + 最高の推論能力」を備えた Pro/Max のサブスクリプションで、毎月 20 から 200 ドルの料金を取っているのに、いまはユーザーに節約して使うように言っているのです。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン