大模型还在卷参数,但真正开始卡行业天花板的,已经变成了另一件事:上下文存储。


当推理长度、Agent 调用链、长期记忆都在变长,真正决定体验和成本的,不只是算力,而是“上下文能不能被高效读写、调度和复用”。这也是为什么最近市场开始把注意力转向 Context Memory、KV Cache、推理存储分层这类基础设施。
下一阶段 AI 竞争,拼的可能不是谁会生成更多内容,而是谁能让模型在更长任务里,稳定、低成本地持续工作。
如果说训练时代拼的是 GPU,那 Agent 时代,拼的就是 Memory。
这也是我在一个群里跟群友讨论为什么龙虾值得去玩,我说claude code都是针对龙虾去打的。但他们说全量上下文这个事情,我竟然无言以对,老老实实又认真养虾。
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论