智能摘要
Agent性能下降的根源在于长时运行导致的上下文爆炸与腐败,核心表现为模型对中间信息遗忘及模式固化。解决之道在于实施上下文工程:利用卸载机制与分层工具精简输入,通过并行子代理实现任务隔离,并引入结构化变异打破思维定势。优化KV Cache命中率可降低十倍成本,这是突破复杂任务瓶颈、构建可靠Agent的关键所在。
— 此摘要由AI生成仅供参考。
传统提示词工程关注如何写指令,而上下文工程更进一步,策划哪些信息该进入模型视野,是从写作者到编辑的升级。
随着 Agent 运行时间变长,上下文信息量呈指数级爆炸(从几百 token 到几万甚至几十万),这是制约复杂任务的最大瓶颈,根源在于上下文管理失控。
- 输入变长导致模型性能下降,且以意外方式崩溃。
- 模型对信息位置极其敏感:关键信息在开头或结尾表现好,在中间时性能断崖式下降(类似读厚书只记开头结尾)。
- 连续处理相似任务时陷入模式固化:学习到的是无脑重复套路,即使情况变化也不调整。
缓存和非缓存成本差距 10 倍(如 cloudsonnet 缓存 token 0.3 元,非缓存 3 元),Agent 输入输出比高达 100:1,该指标直接决定 Agent 能否上生产。
- 上下文卸载:将大块信息存到文件系统,需要时再读取,保持上下文精简(文件系统是终极上下文)。
- 任务隔离:采用并行子代理架构,每个子代理拥有独立上下文窗口,主代理调度,子代理专注执行,互不污染。
- 分层动作空间:最底层是原子函数(如读写文件),中间是沙盒工具(如格式转换),最顶层是 Agent 级工具(封装子流程为接口调用)。
- 破模式固化:引入结构化变异(换序列化模板、调整措辞顺序、加格式噪声),避免模型复制粘贴。
- 保持专注:用 TODO 列表注意力锚点,每完成一步重写代办事项,将目标推到上下文末端,避免迷失。
- 保留错误信息:错误是最好的老师,模型需看到失败痕迹以避免重蹈覆辙。
类比办公室场景:重要档案存档案柜(上下文卸载),琐事教自动化(分层工具),复杂项目分包给独立小组(任务隔离),主管只看标准报表汇总(精简上下文)。上下文是宝贵的有限资源,是构建可靠 Agent 的核心。
文章评论