即刻App年轻人的同好社区
下载
App内打开
莱森LysonOber
1年前
最近在看 MetaGPT 的框架,拿到 AgentStore 测试名额。感觉提示词这部分存在着一直以来很普遍的问题:忽略细节。这也是我在社交媒体上看到各路 Prompter 分享 Role 的一个尚待优化的点。

我举个例子,错误示范:
❌ 你是一个 xx 专家,你很 blabla;
❌ 又或者,请检查 xx 是否有错误,是否存在 yy 问题。

我这里说的“错”不是指自己用 GPT 的场景,而是针对于构建自动化处理任务的 Agent 这个任务来说。

------

这两个错误真的是非常典型,而且本质上是一个问题。你把 GPT 想象为一个依靠 Prompt 进行选择性表达或是从中心点向四周分化的细胞。你会发现从底层能力上看,通过实验来看它就是没法分化太远(我是说目前),原因有两个。

你看 MetaGPT 文档第一句话说的是什么?

Code = SOP(Team) is the core philosophy. We materialize SOP and apply it to teams composed of LLMs.

SOP 是如何体现的?我换个问法好了,当你找某个方面的专家帮你做事 / 给予服务的时候,我们期望的其实就和上面一样 👆

我们不是这个方面的专家,期待的自然是专家能自行判断一些事情,或者说他知道该如何反过来 prompt 你(而不是一直你单方面 prompt),不妨回忆一下「询前表单」。

我之前和 @刘洪江Jet 在一个班一起学 PPT 定制设计。这个是小江之前写的:如何又好又快地解决 PPT wandering.feishu.cn 当然,还有一些沟通方面的我放在了截图里 👇

你可以看到文档里几乎所有的信息都可以被精简和提炼为一个个 Instructions. 可能是制作的哲理(风格),也可能是不同场景和生产环节的具体要求。

一个专家应该有他自己的判断。

相应地,当客户没有提供清楚所需要的必要的材料的时候,任务就不可能顺利进行。这个时候必然会由专家反过来提问客户说:「关于 xxx,我们还缺少 yyy 材料;以及 zzz 我们是否需要进一步沟通一下,因为在我看来,zzz 存在两种不同的方向,到底是 aaa 还是 bbb,我需要进一步确认品牌对于 ccc 的考量 blabla。」

所谓的“常识信息”,不是指 1+1=2。常识指的每一个人的不同工作背景下观察到的独特而平常的细节。

比如刚刚上面文档的很多东西,都叫常识信息,你做一个 PPT,现场的发布环境,荧幕是其他工作人员搞定?还是由我来搞定和考虑细节?如果只是投影仪,那么颜色发灰这些问题要不要考虑……

所以,要想发挥 GPT Prompt 的威力(Agent),有两个点需要考量:

1️⃣ 专家“脑子里想的具体的东西”,而不仅仅是“你是一个 xx 专家”。后者是站在客户的角度。至少目前为止对于这种 Chain 的思想,大模型还不足以面对复杂的生产流程。
2️⃣ 进一步服务,持久地沟通。Few-shot 在单个环节输出结果不理想的情况下是必要的,但是单论对话无法从中心向外分化太远。必然需要在 1️⃣ 的前提下,量身定制每个环节,以及考虑是否需要 Few-shot,需要什么样的 Few-shot。另外,角色自动处理的好处是简化掉中间繁琐的流程,但应当在缺乏必要的信息前阻塞。这种自动化的流程需要以最大化的效率让用户尽可能少地 prompt,就像病人和医生的关系。病人 prompt:你是一个医疗专家;医生 prompt:反问 + 脑子里想的具体决策🌲
535

来自圈子

圈子图片

AI探索站

77747人已经加入