我近期看到的最好的对ChatGPT的类比:一张web文本的模糊JPEG🌄
它很好地解释了为什么它常常会编撰一些不存在的东西(AI的“幻觉”),因为它本质上就是高度压缩后的模糊的图片。尝试从压缩的图像中恢复出精确的原图,那必然只能得到一个看似原图,但细节上仍有差异的“仿图”。因此,当我们在分辨率要求不高的时候,它生成的内容看着感觉还不错。然而,一旦我们已经对内容有了清晰的认知,那么必然效果不会很好。
同理,我认为可以将prompt视为“回答的模糊JPEG”。
这就能解释为什么人们总说AI生成的文章比较白开水,因为有时候我们的提问本身就不是足够清晰。语境、要求、目标和限制没有清晰地表达出来,因此AI只能采用最常见的方式进行扩展,从而无法避免地变得平庸乏味。除非我们在输入的时候就对各个因素有了明确的定义(这也是为什么我们目前看到的优秀的prompt都特别长),才能使生成的内容足够的优秀,足够接近我们的期望。
原文链接:
www.newyorker.com