- 搜集机制:通过
GV和XD0函数递归搜集项目根目录、.claude/目录以及全局配置中的.md指令文件。 - 注入方式:在每轮 API 请求前,由
_3A函数将搜集到的内容包裹在<system-reminder>标签中。 - 注入位置:始终作为 User 消息数组的第 0 项(Index 0)注入,即位于整个对话历史的最前端。
- 缓存优化:利用 Anthropic 的 Prompt Caching(前缀缓存) 机制。由于指令位置固定且内容稳定,模型会缓存这部分内容,后续轮次仅需支付极低的缓存读取费用。
- 逻辑顺序:Claude Code 执行裁剪(总结/删除超长消息)的步骤发生在指令注入 之前。
- 结论:
.claude.md的内容是 「裁剪免疫」 的。它不属于会被持久化保存或修剪的对话历史,而是每轮动态挂载的「插件」,因此永远不会因为对话过长而被总结或丢弃。
「喵理论」:指通过在 claude.md 中要求模型回答时加上特定词(如「喵」)来判断规则是否生效。
- 成立:能有效证明
claude.md文件已成功加载并被模型「读到」。 - 不完全成立:不能 100% 证明模型会严格执行文件中的所有复杂规则。
- 指令漂移:任务极度复杂时,模型可能优先关注 Tool Use 逻辑,忽略非关键的风格指令。
- 局部忽略:模型可能判定「喵」为低优先级噪声,在保证代码质量的前提下主动修剪该输出。
- 视觉盲区:在模型调用工具(JSON 输出)的过程中,「喵」通常不会出现。
将「喵」与核心感知挂钩,例如:「若修改了文件,请在回复末尾注明 [File Updated - Meow]」。这样可以同时验证模型的「规则读取」与「逻辑判断」能力。