21个问题揭露你AI代理的知识盲区
有时候就坐在那里,FOMO上头,想让自己的AI代理变得更强。但怎么搞?
我找到一份尖锐问题清单,专门问AI代理(Claude Code、Codex、Openclaw)。答案会暴露代理对你和你项目理解中的盲区,也可能激发新想法。
记忆和上下文
AI代理最大的弱点就是忘事。每次会话之间丢失上下文,积累错误假设,最后用过时的"你"在工作。问问这些:
1. 你对我和我优先级的哪些假设可能是错的?
2. 会话间你丢失了哪些关于我的上下文?怎么做才不会越来越笨?
3. 哪些地方你在用猜测填补对我的了解,而不是直接问?
4. 你记忆中最有价值但没在用的洞察是什么?
5. 1-10分,你对我优先级和思维的建模准确度?哪里拉低了分数?
6. 我的优先级从开始到现在变了多少?你的方法中哪些过时了?
自动化机会
代理比你更了解你的工作模式——它处理你每个请求。但它通常不主动提改进建议:
7. 根据你对我工作流的了解,我漏掉了哪些工具和自动化?
8. 你注意到我工作中哪些重复的摩擦点?哪些可以不用我说就自动化?
9. 哪些事我还在手动做,虽然你已经有足够上下文来完全自动化?
10. 你现在能搭建什么系统,让之后每个任务都更快?
11. 应该接入哪些外部数据源来做更好的决策?
主动性
好的代理不等命令。它看到项目方向就建议下一步。但它需要知道你期待主动性:
12. 根据我的请求模式,下周我会需要什么?能提前准备什么?
13. 你现在应该发展哪些能力,考虑到我项目的方向?
14. 你看到我的项目、想法和目标之间哪些联系是我可能没看到的?
15. 根据项目走向,你现在应该主动研究或原型什么?
16. 未来24小时你能做的最高杠杆的事是什么——我没要求但能真正推动我前进的?
质量自检
代理经常在已有足够上下文的地方给出通用回答,或者重复你已经纠正过的错误:
17. 从我所有的修改和反馈中,哪些规则你应该现在就写进文件,避免重复犯错?
18. 审计上周所有操作——哪些真正推动了目标,哪些白费功夫?
19. 哪里你在给通用回答,虽然已经有足够上下文给出具体建议?
20. 哪些错误你重复犯了不止一次?我们能建什么防护机制?
21. 如果明天一个新代理只拿你的文档替换你——它肯定会做错什么?怎么记录下来?
怎么用
随便复制一个问题丢给你的AI助手就行。不需要全问——从最有感触的开始。我自己从第5个问题开始,代理坦诚说它每次压缩都丢失我的优先级,然后我们一起搭了持久化记忆系统来解决。