即刻App年轻人的同好社区
下载
App内打开
张楚琪-沉迷AI版
12月前
另一种通过拆分问题来提升生成式 AI 回复的精确性的方式。

之前写的「如何让 AI 少胡说八道中」提到了一篇论文,Chain of Verification (m.okjike.com

核心是基于原始问题和 AI 的回复结果,抽取出一系列相关的事实性问题,然后让 AI 依次回答。接着,让 AI 以这些事实性的问题和答案作为参考,重新回答原始问题。

有点像一个人第一遍做完了一道题,然后针对关键步骤分别进行重新检查。最后对照这些检查结果,再做一遍题。重做的过程就有可能发现不一致的地方,可以对其进行修正,从而提升做对题的概率。

这篇论文 (arxiv.org) 的思路也是拆分问题,不过与 Chain of Verification 不同。它的流程是在让 AI 回答问题之前,先拆出一系列的相关问题,让 AI 依次回答,最后通过机器学习中的弱监督算法 (Weak Supervision) 汇总这些相关问题和答案,推导出最终结果。

弱监督算法主要是可以在没有足够标记数据的情况下训练模型,然后推理出结果(具体我也展不开了,我也是让 GPT 给我解释的 ^_^)。

因为最后需要用弱监督算法 (Weak Supervision) 来推导最终答案,所以不能直接在提示词层面使用。但这里面的思路值得借鉴。

在拆问题的时候,它考虑了不同的问题类型。有是非题、选择题、开放性问题。因此,针对不同的任务,我们可以从问题类型的角度来考虑如何拆分子问题。可能只需要拆分一系列是非题,也可能要拆选择题,或者全部题型都拆。

这一切的努力都是为了给 AI 提供各个角度的信息,让其利用这些信息更好地理解问题及其边界,从而提升推理的精确性。

之前写的 CoT 中八奇技中的 Least-to-Most (m.okjike.com),则是一种自上而下、循序渐进的拆问题方式。

有时候,我在想,用「Let's think step by step.」实现 Few-shot-CoT 可以看作是技巧,而像 Least-to-Most 和这篇(Ask Me Anything Prompting)这样的,哪是在教我 AI 技巧,这分明是在教我如何思考问题。只是这群高手不好意思直说罢了 😂
119

来自圈子

圈子图片

AI探索站

76408人已经加入