-
CLAUDE.md / AGENT.md 只做「目录索引」:写 IF-ELSE 条件路由,告诉它在什么场景去读哪个文件。规则/知识本身放在对应文件里,不要直接塞进主配置。
-
Skill 必须有触发条件:不是装上就有用,而是「在 X 场景才加载 Y」。没有触发条件的 skill,就是上下文污染源,随时可能带偏正在干的事。
-
定期做 SPA Day:让 Agent 自己合并矛盾规则、删废弃 skill、消除歧义——然后确认你的最新偏好。这不是可选动作,是必要维护。
❌ 有偏置的提示词:「帮我找代码库里的 bug」→ Agent 会倾向于找到 bug,哪怕得硬编一个✅ 中性提示词:「通读代码库,跟着每个组件的逻辑走一遍,报告你所有的发现」→ Agent 可能发现 bug,也可能直接告诉你代码运行正常——不被提问方向锁死
-
代码审查:不是「这段代码有什么问题」,而是「通读这段代码,描述它的工作方式和你的所有观察」
-
方案评估:不是「这个方案可行吗」,而是「分析这个方案的各个维度,列出你的发现,不要给出最终结论」
-
数据分析:不是「这组数据说明了什么」,而是「描述这组数据的特征和模式,不做解读」
-
Bug-Finder(激进型):用得分机制驱动,按影响打分(低影响+1分 / 中影响+5分 / 高影响+10分),让它尽可能多地列出所有潜在问题。它的讨好对象是「分数」,所以会拼命找问题,包括不确定的。
-
Adversarial(保守型):负责逐条反驳 Bug-Finder 的发现。成功推翻一条得该条的分数,但如果推翻错了扣 2 倍分。它既想激进反驳,又害怕被惩罚——这种张力让它谨慎但有攻击性。
-
Referee(裁判):告诉它「我有正确答案,你每判对一条+1分,判错-1分」。它会综合两边证据做裁决,给出判断依据和复现步骤。最后你人工抽查高争议项。
【Bug-Finder 指令】通读代码库所有发现,按影响评分(低+1/中+5/高+10),目标:最大化总分。【Adversarial 指令】对以上每条发现,尝试证明它不是真实问题。成功推翻得该分值;推翻错误扣 2x 分值。【Referee 指令】我有正确答案,你每判对+1分,判错-1分。综合上述两份报告,对每条给出裁决和证据。
-
Research Session(干净上下文):列出方案,给出每种的优缺点和推荐结论。约束:不写任何代码。 -
Decision(你或另一个 Agent):基于研究结果选定方案,明确所有技术细节。 -
Implementation Session(另一个干净上下文):只做实现,上下文里只有选定方案的细节,没有其他备选项的噪音。
【第一轮:Research Session】请列出实现 X 的 3 种方案。每种给出:优缺点、适用场景、风险点、推荐结论。约束:不要写任何代码,不要开始实现。【第二轮:Implementation Session(新会话)】按方案2实现:JWT + bcrypt-12 + refresh token rotation + 7天过期。要求:先写测试,再实现,测试不过不允许结束。
{TASK}_CONTRACT.md# Goal- (一句话:交付什么,不超过 30 字)# Non-Goals(明确不做什么)-# Acceptance Criteria(验收条件)- Tests: (必须通过的测试列表)- Screenshots/Behavior: (必须验证的界面或行为)- Performance/Budget: (性能/成本边界)# Constraints(约束)- 不允许修改测试文件- 不允许引入新依赖(除非获得明确确认)# Definition of Done- 以上全部满足,才允许结束任务
-
Claude Code / Codex / OpenClaw 官方更新了什么?跟上就够了。
-
有人说某个外挂/harness「超级好用」?等等看,如果真的好用,六个月内会被官方集成。

