大規模モデルはまだパラメータを競っていますが、いよいよ業界の天井を押し上げるようになってきたのは、別のもの――コンテキストのストレージです。


推論の長さ、Agent の呼び出しチェーン、長期記憶がどんどん長くなるにつれて、体験やコストを本当に左右するのは、計算能力だけではなく、「コンテキストを効率よく読み書きし、スケジューリングし、さらに再利用できるか」です。これが、最近市場が Context Memory、KV Cache、推理存‌記憶分層といった基盤インフラに注目し始めている理由でもあります。
次の段階の AI 競争では、より多くのコンテンツを生成できるかどうかよりも、モデルをより長いタスクの中で、安定して低コストで継続的に動かし続けられるかが勝負になるかもしれません。
もし訓練の時代が GPU の競争だったとすれば、Agent の時代は Memory の競争です。
これは、あるグループで「龍虾(ロブスター)にはなぜ遊ぶ価値があるのか」を群のメンバーと話し合ったときのことです。私は「claude code はすべて龍虾向けに作られている」と言いました。けれど彼らは、「全量コンテキスト」の話をしてきて、私はまったく言葉を失ってしまい、正直に、真面目にまた養虾(龍虾を育てること)するしかありませんでした。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン