我是发现了一个有趣的现象:
我同事完全不会写 AI 提示词,反而在 kimi 上拿到了想要的答案
我可能相对会那么一点点复杂的提示词,反而让大模型迷失了,回答了不准确的答案
图 1️⃣ 是用了丰富的提示词,但生成的内容并不是笔灵核心的功能,很难用在文章中。
图 2️⃣ 是一个比较简单的询问,kimi 反而调用了搜索资料功能,基于资料生成的回答更真实,所以生成的内容反而更加适合用在文章中。
两点思考:
1、 确实,大模型越来越厉害了,不需要复杂的提示词
2、 我觉得一个写文章的全流程,一定是把这个任务拆解成一个个子任务,然后每一个环节中都用到AI,人和 AI 协作完成子任务,最后生成的完整内容可能才比较合适。
3、 比如,第一个环节,我可能只是向 kimi 简单询问一下笔灵有什么核心的功能。
4、 第二个环节可能就是继续询问一下笔灵核心人群是什么。
5、 第三个环节,可能就是想让他去写一下测评笔灵的文章大纲。 然后自己修改大纲
6、 第四个环节,基于人和 AI 协作完善的大纲,一次性生成了完整内容,然后再改改改。
如果想用复杂提示词一次性完成一个任务,可能是妄想,反而让大模型迷失了方向!