LangChain 定义了用于 AI 开发的代理框架架构

蒂莫西·莫拉诺

2026年3月11日 04:56

LangChain的新框架解析了代理如何通过文件系统、沙箱和内存管理,将原始AI模型转变为面向生产的系统。

LangChain发布了一份关于代理 harness 架构的全面技术细节,明确了将原始语言模型转变为自主工作引擎的基础设施层。该框架由Vivek Trivedy于2026年3月11日撰写,随着 harness 工程成为AI代理性能的关键差异化因素,这一发展尤为重要。

核心观点看似简单:代理 = 模型 + harness。除了模型本身之外的所有内容——系统提示、工具执行、编排逻辑、中间件钩子——都归属于 harness 责任。原始模型无法在交互中保持状态、执行代码或访问实时知识,而 harness 负责弥补这些不足。

为什么这对开发者很重要

LangChain的Terminal Bench 2.0排行榜数据显示了一些反直觉的情况。Anthropic的Opus 4.6在Claude Code中的得分明显低于在优化的第三方 harness中运行的同一模型。该公司声称,仅通过更换 harness,而不改变基础模型,就将其编码代理的排名从前30提升到前5。

这对在模型选择上投入巨大、但忽视基础设施的团队来说,是一个重要信号。

技术栈

该框架定义了几个核心 harness 原语:

文件系统作为基础层,提供持久存储,支持会话间的工作持续性,并为多代理架构创建自然的协作界面。集成Git增加了版本控制、回滚能力和实验分支。

沙箱解决了运行代理生成代码的安全问题。 harness不在本地执行,而是连接到隔离环境进行代码执行、依赖安装和任务完成。网络隔离和命令白名单提供额外的安全保障。

内存与搜索应对知识限制。诸如AGENTS.md的标准会在代理启动时注入上下文,实现一种持续学习的形式,代理可以持久存储会话中的知识,并在未来会话中访问。网页搜索和Context7等工具提供超出训练截止点的信息访问。

防止上下文腐败

该框架通过多种机制应对上下文腐败——即随着上下文窗口填满,模型推理能力下降的问题。压缩机制在窗口接近容量时智能总结和转移内容。工具调用转移减少了大量输出带来的噪声,只保留头尾标记,将完整结果存储在文件系统中。技能实现渐进式披露,只有在需要时才加载工具描述,而不是在启动时就填满上下文。

长期执行

对于跨越多个上下文窗口的复杂自主任务,LangChain提出了Ralph Loop模式。该 harness级钩子会拦截模型退出尝试,并在干净的上下文窗口中重新注入原始提示,强制模型继续完成目标。结合文件系统状态持久化,代理可以在长时间任务中保持连贯性。

训练反馈循环

像Claude Code和Codex这样的产品现在在训练后加入了harness,形成模型能力与harness设计的紧密结合。这带来一些副作用——Codex-5.3的提示指南指出,改变文件编辑工具逻辑会降低性能,暗示模型可能对特定harness配置过拟合。

LangChain正将此研究应用于其deepagents库,探索在共享代码库上调度数百个并行代理、自我分析追踪harness级失败模式,以及动态即时工具组装。随着模型在规划和自我验证方面的原生能力不断提升,一些harness功能可能会被吸收到基础能力中。但公司认为,良好的基础设施设计无论模型智能水平如何,仍然具有重要价值。

图片来源:Shutterstock

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论