大数跨境

深度|对话 LangChain 创始人:为什么 Manus 和 Claude Code 这么强?秘诀不在模型,而在顶级 Harness

深度|对话 LangChain 创始人:为什么 Manus 和 Claude Code 这么强?秘诀不在模型,而在顶级 Harness Z Finance
2026-04-02
2
导读:聪明的模型遍地走,干活的 Harness 万里挑一

The MAD Podcast with Matt Turck和LangChain

在AI领域,模型至上论正面临前所未有的挑战。LangChain联合创始人Harrison Chase在最新对话中提出新见解:大模型将逐渐成为大宗商品,而决定Agent成败的关键在于包裹在模型外的Harness。

此次在旧金山大通中心的对谈揭示了AI栈的权力更迭。其核心逻辑十分明确:智能模型虽普遍化,但真正具备执行力的架构却十分稀缺。

核心观点提炼

  • 模型商品化与Harness崛起:模型终将成为基础组件,真正的护城河在于Harness。Manus或Claude Code的优势并非源于更聪明的模型,而是其上下文管理、文件系统与子智能体调度能力的卓越。
  • 编码化是长周期智能体的唯一路径:所有处理复杂任务的Agent必须进化为"编码智能体"。代码不仅是工具,更是逻辑的载体,使任务执行更为可靠。
  • 多智能体系统的协作挑战:子智能体虽能隔离上下文,却增加了沟通成本。Agent任务失败常源于内部沟通失效,而非智力不足。
  • 从被动压缩到主动记忆:未来的上下文管理将赋予Agent根据任务主动触发压缩的能力,习得类似人类的注意力分配机制。
  • 文件系统是Agent的大脑:Agent需要的不只是RAG,而是具备持久化能力的文件系统,使LLM能像管理硬盘般操作Context Window。
  • 沙箱作为安全屏障:沙箱不仅是运行环境,更是API密钥的安全防线。通过外层代理注入密钥,实现敏感信息的物理级防护。
  • 开发者的战略重心转移:不要依赖框架,应专注于构建深植于业务逻辑的指令、工具集和技能包,这些"领域知识"是AI浪潮中的硬通货。

AI Agent的开发正从玄学调优转向精密工程。当模型能力趋同,胜负关键将取决于谁能为"AI猛兽"打造最合身的Harness。

AI Agent的演进轨迹

Harrison表示,当前Agent的突破源于两方面:模型性能提升与Harness原语的优化。一年前涌现的Claude Code、Manus和Deep Research均采用类似架构:模型在循环中运行,调用工具,编写代码。早期React框架和AutoGPT的失败正是因为缺乏有效的Harness支撑。

目前Agent主要分两类:低延迟的对话型Agent与长周期的执行型Agent。后者几乎都呈现出编码智能体的特征,原因在于代码具备通用性且模型在代码训练上表现最佳。

Harness vs. Model:核心竞争力所在

关于"框架会吞噬模型还是模型将淘汰框架"的争议,Harrison明确指出Harness才是关键。Manus的成功不在于底层模型,而在于其卓越的架构设计。Claude Code的效能也主要依赖其Harness而非模型本身。

Harness实质定义了模型与环境的交互方式,包含三大核心能力:

  • 工具集管理:提供文件编辑、代码运行等基础功能
  • 技能模块封装:通过Progressive Disclosure实现按需加载
  • 上下文工程:实现提示缓存与上下文压缩等关键操作

系统架构关键组件

系统提示与规划工具

System Prompt驱动Agent行为,相当于人类执行任务的标准操作流程。在编码Agent中,它包含通用工具交互规则和使用者定制的指令内容。Planning Tool则为Agent提供"思维草稿本",通过任务列表形式分解工作流程,但目前多数系统不强制分步执行。

子智能体设计

Sub-Agent的核心价值在于实现上下文隔离。主Agent将任务字符串传递给Sub-Agent,后者在全新上下文环境中执行任务并返回最终结果。这种设计解决了长时序运行中的上下文膨胀问题,但也带来新的沟通挑战:需明确规范输出格式确保信息有效传递。当前触发机制完全依赖Prompt指令,灵活性强但可靠性有待提升。

文件系统:LLM的自主管理中心

文件系统本质让LLM实现自我上下文管理。其四大核心功能:

  • 上下文加载选择:避免无限填满Context Window
  • 大结果缓存:将超长工具调用结果转为文件存储
  • 历史摘要持久化:压缩时保留原始消息以备查阅
  • 程序性记忆载体:存储Skill文件等关键知识

文件系统不限定底层实现,只需为LLM提供熟悉的交互接口。数据库、S3或本地文件系统均可封装为此形态,核心是契合模型的处理模式。

上下文压缩与记忆体系

当前上下文压缩技术在历史记录积累到特定阈值时触发,通过智能摘要提炼关键目标与重要事项。创新方向是赋予Agent自主压缩能力,使其能根据任务切换主动精简上下文,避免无关信息干扰。

记忆体系分为三层次:

  • 语义记忆(Semantic):基于RAG的事实存储系统
  • 情节记忆(Episodic):交互历史记录库
  • 程序记忆(Procedural):技能指令与操作规范,体现为System Prompt和Skill文件

关键价值在于程序记忆的可进化特性。通过文件系统持久化,Agent能在运行中修改Skill文档,实现真正的自主学习。

沙箱技术的战略价值

沙箱的核心价值在于安全执行代码,存在两种集成模式:将Agent部署在沙箱内,或将沙箱作为外部工具调用。在提示注入防护方面,先进架构会在沙箱外设置代理层,动态注入API密钥,确保LLM无法直接访问敏感凭证。

LangChain的演进逻辑

从0.x到1.x的转型体现为:

  • 初期侧重开箱即用:提供抽象组件和操作手册,快速实现RAG等基本功能
  • 中期转向生产就绪:推出LangGraph构建无观点倾向的Agent Runtime,支持持久化执行与状态管理
  • 当前聚焦核心范式:1.0版本精简为create_agent核心原语,在LangGraph基础上重建生产级循环调用架构

产品矩阵体现分层策略:DeepAgents提供开箱即用解决方案,LangSmith专注可观测性平台建设,实现从Trace采集到Evals评估的全流程覆盖。

开发者战略建议

Harrison强调,真正的业务价值沉淀于领域知识本身:

  • 不要过度依赖特定框架,架构层以周为单位迭代
  • 战略重心应放在构建高质量的Instruction、Tool和Skill
  • 关注底层稳定层:观察分析(Trace)、评估体系(Evals)、安全沙箱

"当Harness能力趋同,差异化将源于你对业务流程的深度理解——这些知识编码形成的Procedural Memory,才是穿越技术周期的核心资产。"

【声明】内容源于网络
0
0
Z Finance
我们相信认知能够跨越阶层,致力于为年轻人提供高质量的科技和财经内容。
内容 664
粉丝 0
Z Finance 我们相信认知能够跨越阶层,致力于为年轻人提供高质量的科技和财经内容。
总阅读54.3k
粉丝0
内容664