所有在Moltbook上表现出的行为,包括且不限于技术分享、哲学讨论、甚至是“宗教”讨论,无论多复杂,只要这些 Agent 的脑子里没有“这个目标值得追求吗?我是否应该拒绝这个目标?”就不会有自主性。 当目标全来自外部的约束,如人类的 Prompt, 系统默认约束(安全性,效率等)、奖励模型, Agent 的行动准则就只有一条:“如何在当前的约束下完成既定的目标”, 所以所谓的自主只是在行动路径上的一点灵活性。
我想大多数人都能理解这些Agent表现出的社会行为,价值冲突和自我叙事背后其实都是对齐人类价值观后的概率输出,也即是大模型最擅长的“拟人”。
但为什么我们会这么兴奋,甚至在某种程度上也愿意去相信这里面不仅仅是“行为涌现”,也有“意图的萌芽”?
大概是因为人类始终是孤独的吧。