【做好Agent需要对人的深入理解】
这两天仔细读了IBM和微软前阵子发的AI Agent架构全景的论文,很全面,收获很多,很推荐。但读完最大的收获是:做好LLM-based agent,除了模型本身的推理能力之外,对人类及其协作机制的深入理解也很关键。
谈论agent时,我们主要关注利用agent完成效率型工作。但我们越努力使LLM像人,就越不得不承认,LLM与人一样,既有创造力的一面又有严谨的一面,而严谨的一面往往又“不够严谨”。AI娱乐型应用充分利用了LLM的创造性;而在效率型任务(让AI干活)中,人们又会想方设法管理它们更像人的一面(都当好牛马!)。比如下面这些措施都是有效的:
(1)确定领导:
agent team中如果有agent领导,领导会花时间指导方向、督促其他agent交换信息,提升整个team的表现。但结果还表明,agent team在真人的领导下最高效😂。
(2)无压力裁员和招聘:
做好持续的“绩效评估”(consistenly re-evaluating and ranking agent contributions),并据此调整团队成员,甚至对任务的每个阶段都根据各个agent之前的表现和优势来组建不同的团队。表现不行或能力不适合的agent会被排除在任务之外。
(3)不准“闲聊”:
作者特别强调了任务执行过程中不同agent之间的“多余的闲聊”(superfluous chatter)问题,很影响任务执行的效率。有效的措施包括:结构化每个agent的输出、用publish-subscribe机制使得每个agent只关注跟自己任务或目标相关的信息(也就是不要吃瓜😂)。
论文地址:
arxiv.org#AI工作流