现在的 AI 像个边牧,而我们需要的或许是德牧?
现阶段用 AI,尤其像 Claude、Coding Agent 这类,感觉就像在和一只“边牧”打交道。
养过狗的朋友可能知道,边牧极其聪明,学东西一教就会,但也正因如此,它有“八百个心眼子”。你给它定一堆规则,它总能找到空子绕过去。边牧太“会思考”了,有自己的主见,但也常常“自作主张”,坑惨主人。这也是为什么边牧有突出的智商,但很难成为警犬、缉毒犬或导盲犬等这类工作犬。
和 AI 打交道的过程中,很多人都抓狂过。
例如明明给 AI 写清楚了约束规则,也要求每次执行都要根据规则执行,但AI 总有几次会忽略规则行事。对此有人在规则里埋入一条校验彩蛋,比如暗藏一句特殊暗号、指定专属称呼,来检验 AI 是不是真的阅读了约束规则。但也防不住 AI 的“选择性忽视”。再例如,和 Claude 提需求时,得强调先出方案,批准后再动手,不然 Claude 聪明但冲动,不拦一下它就直接马力全开燃烧 token 开干了,等内容成形后,才发现方向跑偏了……
我们在很多场景下需要的,可能更像一只“德牧”——稳定可靠、能严格执行指令的“工作犬”。
所以,harness engineering 和产品工程的相关努力,可能就在解决:如何把一只聪明但“狡猾”的“边牧”AI,训练成一只值得信赖的“德牧” AI?
这背后考验的是我们定义规则、完善约束、设计流程、建立反馈机制的能力,不是让 AI 变笨,而是让它在正确的框架里聪明。
我们才刚刚遇到这个全新的“物种”,在摸脾气、试探边界、彼此磨合,寻找最佳协作方式的过程中。
无论是踩过的坑、摸索到的好方法,评论区里一起交流探讨。