
一、一个被很多人忽略的问题:Agent 的成本,很多时候不是模型能力,而是“前缀”
事情的起点,其实有点戏剧性。
原本只是一个再普通不过的工作日,但开发者圈突然被一件事刷屏——
Claude Code 的源码,被“意外公开”了。
不是官方开源,也不是技术发布,而是一个很典型的工程事故:
npm 包里误带了 source map 文件。
这种文件本来只是用来调试的,但一旦放出来,就等于把压缩后的代码“反编译”回了原始实现。于是短短时间内,几十万行 TypeScript 代码被完整还原,整个工程细节几乎被摊在桌面上。
一时间TorchV的办公室里,同事们奔走相告,coding-agent和数字员工们被指派进行了深度的源码挖掘。大家纷纷对自己Focusing的方面开始了探索
说回来,这件事为什么会炸? 因为大家第一次有机会,看到公认的全球Top级“顶级 Agent”到底是怎么做的。 很快,讨论就集中在几个非常熟悉的话题上:
- 它到底有多少工具?(答案:很多,而且很复杂)
- Agent loop 是怎么跑的?
- 多 agent 协同是怎么做的?
- 有没有什么“隐藏能力”(比如后台常驻、自动执行等)
这些都很正常,也确实很有意思。
但如果我们把这些代码多翻一会儿,会慢慢注意到一个不那么起眼、甚至一开始很容易忽略的点:
👉 工具并不是一开始就全部给模型的。
而且不仅如此,它们:
- 有一部分是“延迟”的
- 有一部分只以“线索”形式存在
- 有一部分甚至被刻意放在不同的上下文结构里
这件事初看很像是某种 prompt 技巧,甚至有点“工程细节味太重”。
但再往深一点想,就会意识到:
这很可能不是技巧,而是一个被精心设计过的结构。
更有意思的是,当我们把视角从 Claude Code 稍微拉开一点,会发现:
这并不是它一家在这么做。
同样是顶级的编码智能体Codex,在开源代码中也能找到相同的做法,被称之为: delayed exposure
这时候,一个问题就变得值得认真对待了: **为什么这些系统都在做同一件事?
原因其实不在“能力”,而在一个很多人一开始不会注意到的地方:
多轮Agent的成本和速度,很大程度由 Context 的结构决定的。
更具体一点说,是由——
👉 前缀(prefix)是否稳定决定的。
而 Claude Code 这次“意外开源”,恰好让我给大家带来一段颇有意思的分享:
延迟曝光机制,和前缀缓存(prefix cache)有什么关系?
二、prefix cache 是什么,以及它为什么会成为 Agent 的核心约束
很多人真正开始关注 prefix cache,其实是从 2024 年的一次“价格变化”开始的。 当时 DeepSeek 在 API 里上线了一个能力:上下文硬盘缓存。
官方给出的描述很直接:
- 很多请求,其实有大量重复前缀
- 这些前缀可以缓存下来
- 下次再用,不需要重新计算
更关键的是价格:
👉 命中缓存的部分,成本可以降到原来的 0.1 倍
这事之所以重要,不仅因为“便宜了”,而是因为它首次将cache的复用做到了工程化中,让这个相对隐性的知识被知晓:
模型推理,并不是每次都必须从头计算。
prefix cache,本质上在复用“已经算过的前缀”
要理解这件事,需要稍微回到一点点模型原理。
以 Transformer 为例(现在几乎所有大模型都是这个架构),推理过程大致是这样的:
- 输入被拆成一串 token
- 模型一层一层处理这些 token
- 每一层都会产生一组中间结果(KV cache)
- 后续 token 会不断依赖前面所有 token 的计算结果
换句话说:
模型在处理第 N 个 token 时,前面 N-1 个 token 的计算结果是已经存在的。
于是就有一个很自然的优化:
如果下一次请求的前缀完全一样,那这些中间结果(KV cache)其实可以直接复用。
也就是说:
- 不需要重新跑 attention
- 不需要重新算 embedding
- 直接从缓存继续往后生成
DeepSeek 做的事情,本质上就是把这套机制“工程化”了:
- 把前缀的计算结果缓存到磁盘(而不是只存在内存)
- 在分布式系统中复用这些缓存
- 自动识别请求前缀是否一致
而且它还有一个非常严格的条件:
只有从第 0 个 token 开始完全一致的前缀,才会命中缓存。
中间哪怕有一点不同:
👉 都不会命中
这件事为什么会对 Agent 产生巨大影响
在普通单轮问答里,这个机制已经很有价值了:
- 长 prompt(system prompt / few-shot)
- 重复调用
- 数据分析类任务
都可以明显降成本。 但在 Agent 里,这件事的影响是被放大的。 因为 Agent 的调用方式是这样的:
- 每一轮都会把“历史对话 + 新输入”一起发给模型
- 上下文单调递增,这是一个非常适合缓存的结构
如果一切都按理想情况发展,每一轮只是往后 append,前面的内容完全不变 那么:
👉 prefix cache 命中率会非常高
👉 推理成本接近“增量计算”
但现实情况下,模型提供商在收到消息后会这样格式化输入:
┌───────────────────────────────┐
│ System / Instructions │ ← 稳定前缀(基本不变)
├───────────────────────────────┤
│ Tool List / Schema │ ← 稳定前缀(最容易被破坏)
├───────────────────────────────┤
│ Environment / Context Info │ ← 通常稳定(但可能变化)
├───────────────────────────────┤
│ │
│ ┌───────────────────────┐ │
│ │ User Message (turn 1) │ │
│ ├───────────────────────┤ │
│ │ Assistant (reasoning) │ │
│ ├───────────────────────┤ │
│ │ Tool Call + Output │ │
│ ├───────────────────────┤ │
│ │ User Message (turn 2) │ │
│ ├───────────────────────┤ │
│ │ Assistant ... │ │
│ └───────────────────────┘ │
│ │
│ (持续 append) │ ← 可增长后缀
└───────────────────────────────┘
很多系统,会在不知不觉中破坏这一点。 最典型的,就是前面提到的:
👉 前缀被改写了。
而改写前缀的“重灾区”,往往就是工具列表,这会带来一个非常实际的结果:
同一个 Agent,随着对话轮次增加,成本和延迟不断“重算”。
也正是因为这个原因,prefix cache 在 Agent 里,从一个“可选项”,变成了一个必做项:
- 你可以让上下文变长
- 但尽量不要让“前面的结构”发生变化
换句话说:
DeepSeek 把这件事“显性化”了——用价格告诉你缓存有多重要;
而 Agent 系统,则必须把这件事“结构化”——从一开始就围绕缓存去设计上下文。
接下来,我们就可以回到最开始那个问题:
如果工具本身是动态的,那该怎么让它“不破坏前缀”?
答案就是——延迟曝光。
三、Claude Code 意外“开源”,让一个原本模糊的机制变清晰了
如果只停留在表层,Claude Code 做的事情其实并不新鲜:
- 有工具
- 支持 Tool Search
- 模型可以按需调用
但源码一旦被还原出来,有一件事会变得非常明显——它的重点根本不在“工具调用”,而在另一件更底层的事情:
工具是如何进入上下文的。
Claude Code 从一开始就把工具可见性,当成一个和缓存边界绑定的问题来处理。
它的基本思路可以用一句话概括:
工具不是一次性给模型,而是分阶段、分位置、分承载方式进入上下文。
首先,它在系统层面就把工具分成两类:
一类是立即可见的,模型从第一轮就可以直接调用;另一类则是延迟的,这部分工具不会在初始 prompt 里展开完整 schema。
这一步本身不复杂,但关键在于后面的处理方式。
对于这些延迟工具,Claude Code 并不是“什么都不给”,而是先给模型一个“线索层”:
- 告诉模型有哪些工具存在
- 告诉它们来自哪个来源(比如 MCP)
- 但不会给出完整参数定义
这样,模型在第一轮看到的上下文,是一个轻量且稳定的前缀,而不是一整套庞大的工具 schema。
接下来,当模型真正需要某类能力时,它才会通过 Tool Search 去拿完整定义。
这一点和很多系统类似,但 Claude Code 的关键区别在于:
👉 “拿到定义”这件事之后,这些信息会以什么形式进入上下文。
如果只是简单实现,很容易走到一种直觉方案: 将搜索到的工具重新加入工具列表
这种方式简单直接,但有一个致命问题:
前缀变了,cache 直接失效。
Claude Code 的处理方式明显更“克制”。
它没有依赖单一表达,而是根据不同路径,把“延迟工具的存在”放在不同的承载层里。
有时候,它确实会用类似上面的提示块,让模型知道有哪些工具;但在另一条路径下,这些信息会变成一种 system-reminder 风格的消息,不再是直接拼在 prompt 前部的文本。
再往后,你会看到更进一步的做法:它会把这些变化整理成一种增量结构,比如:
普通提示块示例:
<available-deferred-tools>
Read
Edit
Grep
</available-deferred-tools>系统提醒类信息示例:
Deferred tools appear by name in <system-reminder> messages.更稳定的增量附加信息示例:
deferred_tools_delta:
- tool: Read
- tool: Edit
- tool: Grep
这种形式的本质,不再是“每轮重写一段文本”,而更像是:
👉 把工具池的变化,当作一次可追加的状态更新。
进一步看源码里的开关逻辑,这件事就更清晰了。
是否使用 <available-deferred-tools> 这种前置块,并不是固定的,而是取决于类似 isDeferredToolsDeltaEnabled() 这样的路径判断:
- 如果没有启用更稳定的机制,就退回到“前置提示块”
- 如果启用了 delta attachment,就不再每轮 prepend
- 而是把变化整理成附加信息,进入会话历史
再往深一层看,还有一个更容易被忽略的点:
它在 cache 判断上,是有明确取舍的。
延迟工具的变化,本质上是“系统能力的变化”,但 Claude Code 的策略是:
👉 这种变化不应该直接影响 prefix cache
换句话说,它在做两件事:
- 让模型“看到工具”
- 但尽量不让“工具变化”成为 cache 的扰动源
把这些拼在一起,就可以得到一个非常清晰的结构:

它不是在解决“模型如何选工具”,而是在解决“工具系统如何不破坏前缀”。
四、再看 Codex:另一种实现,但在解决同一个问题
如果只看 Claude Code,或许以为这是 Anthropic 的一套“特殊技巧”。
但当你再去看 OpenAI Codex CLI 的实现,会发现一个很有意思的现象:
它走的是相对不同的路径,但目标几乎一样。
Codex 的切入点不是“工具怎么放”,而是:
把“工具发现”这件事,变成一次正式的会话事件。
它的做法可以简单理解成三步:
第一步,初始阶段不暴露全部工具
模型一开始只看到:
- 少量基础工具
- 一个叫
tool_search的入口
其他工具,并不在顶层完整出现。
第二步,需要时让模型自己去搜
当模型判断需要某类能力时,它不会直接调用工具,而是:
👉 先调用 tool_search
这个动作的意义在于:
- 明确当前有哪些工具
- 拿到完整 schema
- 确认命名空间和调用方式
第三步,也是最关键的一步:
👉 搜索结果会写入会话历史
也就是说,这不是一段临时提示,而是一个正式存在的历史项:
- 有 call
- 有 output
- 有配对关系
从这一刻开始,这些工具就“存在于对话里”了。
这一步的工程价值非常大,但很容易被忽略。
因为它带来一个直接结果:
工具定义不需要反复出现在前缀里了。
后续轮次发生的事情是:
- 模型直接基于历史里的工具定义调用
- 系统通过“命名空间 + 短名”解析回真实工具
- 整个顶层工具集合保持稳定
也就是说,Codex 做了一件和 Claude Code 本质类似的事情:
👉 把变化往“后面”移动,而不是改前面
如果你把两者放在一起看,会发现一个非常清晰的共识:
| Claude Code | Codex | |
|---|---|---|
| 切入点 | 工具信息的承载位置 | 工具发现的生命周期 |
| 关键手段 | delta / reminder / 非前缀注入 | tool_search + 历史写入 |
| 本质目标 | 不污染 prefix | 不重写 prefix |
路径不同,但答案是一致的:
不要让“工具全集”成为一个每轮都会变化的 prompt 前缀。
而这,也正是“延迟曝光机制”真正要解决的问题。
五、为什么“延迟曝光”会在 Agent 中变成一个几乎必选的结构
如果只看 Claude Code 或 Codex,很容易把延迟曝光理解成一种“高级优化”。
但一旦你把视角从“某个实现”切换到“Agent 系统整体演进”,就会发现:
这其实不是优化,而是规模上来之后的必然结果。
先看一个趋势变化。
早期的 Agent,工具通常是这样的:
- 数量很少(2~5 个)
- 来源固定(本地 + 少量 API)
- 生命周期稳定(基本不会变)
在这种情况下,把所有工具一次性塞进 prompt,完全没问题,甚至更简单
但现在的 Agent,工具形态已经完全变了:
- 工具数量:几十甚至上百
- 工具来源:
- 本地工具
- 平台内置工具
- MCP 工具
- 子agent工具
- 工具可见性:可能在运行过程中动态变化
尤其是 MCP 这一类能力,本质上是:
工具集合是“运行时生成”的,而不是静态配置的。
这时候,如果你还用“全量工具直接暴露”的方式,会发生什么?
第一层问题,是成本问题:
- prompt 变得很重
- 每一轮都要重新发送完整 schema
- token 消耗显著上升
但更致命的是第二层问题:
👉 prefix cache 开始频繁失效
这时候,延迟曝光就不再是“优化”,而是一个结构性解法:
- 工具不再一次性暴露
- 可见性分层(基础工具 / 延迟工具)
- 能力通过搜索或线索按需获取
- 工具定义尽量只出现一次(进入历史或稳定层)
这样做的直接结果是:
- 首轮更轻,按需加载
- 中间轮次更稳定
- prefix 更容易保持一致
- cache 命中率显著提高
换句话说:
当工具系统开始“动态化 + 大规模化”,延迟曝光几乎是唯一不会把系统拖垮的方案。
好,这一章我帮你做一次压缩 + 强化 TorchV 部分 + 收尾更有力,去掉重复表达,让节奏更干净。
六、延迟曝光真正保护的不是“工具数量”,而是“前缀不被改写”
如果把前面的分析收敛成一句话,其实就是:
延迟曝光真正保护的,不是“工具少一点”,而是“前缀稳定不被改写”。
可以把一次模型请求简单拆成两部分:
- 前缀(prefix):instructions、工具定义、环境信息
- 后缀(suffix):用户输入、工具调用结果、对话历史
prefix cache 的规则非常简单,也非常严格:
👉 只有前缀完全一致,缓存才会命中。
延迟曝光本质上做了一件事:
把原本会进入前缀的变化,转移到后缀或更稳定的附加层。
这其实就是把“只追加、不修改”的设计,从对话内容,扩展到了工具系统本身——也就是一种更完整的 Append-Only Prompt 模式。
这个问题在真实系统里并不抽象。
在 TorchV 的 Agent 实践中,我们遇到过一个很典型的场景:有状态的沙箱工具。
- agent 先发起连接
- 连接成功后,系统才返回一组新的可操作工具
如果直接把这些工具“刷新进前缀”,很容易出现:
- 每轮工具列表都在变化
- prefix 不再稳定
- cache 命中率迅速下降
我们的调整方式其实和前面两家的思路是收敛的:
- 初始只暴露稳定能力
- 动态工具通过“事件 / 附加信息”进入上下文
- 严格避免回写或重排前缀
- 所有变化尽量表现为 append,而不是 rewrite
这件事在 RAG 和企业知识库场景里尤为关键。
因为:
- prompt 本身很长(知识上下文 + system 约束)
- Agent 运行链路更长(检索 → 推理 → 调用 → 再检索)
- 工具来源更多且更动态
如果前缀不稳定:
👉 每一步几乎都在“重新算一遍”
而一旦前缀稳定:
👉 系统会明显进入“增量执行”的状态(速度和成本都会下来)
也正因此,在我们新的 Agent 产品线 Workstation 里,这一点被明确提炼成一个设计原则:
能力可以动态变化,但前缀必须尽量静态。
回头看 Claude Code 和 Codex,其实路径不同,但本质完全一致:
- Claude Code:通过承载层设计,隔离工具变化
- Codex:通过 tool_search,把工具展开变成历史追加
- TorchV:在动态工具与长上下文之间,强制“只追加不回写”
当 Agent 还很简单时,这件事不明显;
但当工具变多、链路变长、上下文变重时,
👉 谁能控制“变化发生在哪里”,
👉 谁的系统才能真正跑得稳、跑得久、跑得起。


