Skip to content

Instantly share code, notes, and snippets.

@shihanmax
Created January 23, 2026 03:23
Show Gist options
  • Select an option

  • Save shihanmax/5f501dd9a58ea6b04a19e9d9ee247523 to your computer and use it in GitHub Desktop.

Select an option

Save shihanmax/5f501dd9a58ea6b04a19e9d9ee247523 to your computer and use it in GitHub Desktop.
Analysis CLAUDE.md in CC

Claude Code 上下文与指令注入机制研究总结

1. claude.md 注入逻辑

  • 搜集机制:通过 GVXD0 函数递归搜集项目根目录、.claude/ 目录以及全局配置中的 .md 指令文件。
  • 注入方式:在每轮 API 请求前,由 _3A 函数将搜集到的内容包裹在 <system-reminder> 标签中。
  • 注入位置:始终作为 User 消息数组的第 0 项(Index 0)注入,即位于整个对话历史的最前端。
  • 缓存优化:利用 Anthropic 的 Prompt Caching(前缀缓存) 机制。由于指令位置固定且内容稳定,模型会缓存这部分内容,后续轮次仅需支付极低的缓存读取费用。

2. 消息裁剪(Compaction)的影响

  • 逻辑顺序:Claude Code 执行裁剪(总结/删除超长消息)的步骤发生在指令注入 之前
  • 结论.claude.md 的内容是 「裁剪免疫」 的。它不属于会被持久化保存或修剪的对话历史,而是每轮动态挂载的「插件」,因此永远不会因为对话过长而被总结或丢弃。

3. 「喵理论」验证分析

「喵理论」:指通过在 claude.md 中要求模型回答时加上特定词(如「喵」)来判断规则是否生效。

理论有效性

  • 成立:能有效证明 claude.md 文件已成功加载并被模型「读到」。
  • 不完全成立:不能 100% 证明模型会严格执行文件中的所有复杂规则。

潜在失效场景

  1. 指令漂移:任务极度复杂时,模型可能优先关注 Tool Use 逻辑,忽略非关键的风格指令。
  2. 局部忽略:模型可能判定「喵」为低优先级噪声,在保证代码质量的前提下主动修剪该输出。
  3. 视觉盲区:在模型调用工具(JSON 输出)的过程中,「喵」通常不会出现。

优化建议

将「喵」与核心感知挂钩,例如:「若修改了文件,请在回复末尾注明 [File Updated - Meow]」。这样可以同时验证模型的「规则读取」与「逻辑判断」能力。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment