AI 项目的新范式:Context, not Control
最近在看 OpenClaw 代码,经常会赞叹还能这么设计。想了想,最底层的代码设计范式变了:
传统软件工程中,开发者是上帝。代码是绝对的法律,行为是 100% 的确定性控制。
但在 AI 项目中,没法靠严格的指令来要求 AI,过多的指令会让 AI 指令疲劳,指令遵循性下降,还会影响 AI 的泛化性,导致无法应对用户丰富的需求。
真正有效的思维是:带入大模型视角,审视上下文到底出了什么问题?
Debug 的本质变成了“消歧”与“降熵”,模型跑偏往往不是因为“不听话”,而是因为上下文中存在语义冲突或信息噪音。Debug 不再是修改逻辑,而是优化信息的“注意力分配”。
这种思路特别像Netflex 企业文化中的那句「Lead as Context, not Control」
开发者对程序的态度,从「控制」变成了「领导」。
带来这些变化的底层逻辑也类似,:
1.对象主体性的变化:
在管理中,精英员工是有主观能动性的“主体”,不是听命的机器。
在 AI 中,大模型是具备“涌现能力”的概率模型,不是硬编码的逻辑。
2.指令的失效:
对精英员工下死命令,他会失去创造力。
对大模型下死命(过多的硬约束),会极大降低泛化性,只能处理少量问题。
3.对“对齐”的追求:
管理的最高境界是员工与公司目标对齐。
Agent 开发的最高境界是模型行为与人类意图对齐(Alignment)。
更有意思的是,Netflix的创办人哈斯廷斯后来在他的书《不拘一格》(No Rules Rules)里进一步阐述了这个观点。他提到,只有在满足两个前提时,“Context, not Control”才有效:
1.人才密度极高(模型能力足够强)。
2.追求创新而非防范错误(Agent 的任务具有开放性)。
如果模型能力很弱,或者任务要求绝对的、零误差的逻辑,那么“Control”(传统的逻辑代码)依然是必要的。