即刻App年轻人的同好社区
下载
App内打开
Szhans
10月前
👓 AI 新知:为什么要记住AI并非人类这一点很重要

来自 Vox 杂志一篇重磅好文,从AI的可解释性难题、拟人化(本质主义)的用户心理,再到社会整体面临巨大挑战;融汇了进化心理学、比较心理学和复杂科学、人工智能哲学等跨领域视角,相当深入浅出,并鼓励人们在AI越来越强大的新时代保持批判性思考。

精华要点:

- 在像 ChatGPT 这样的大语言模型出现之前,没有任何语言生产工具能像幼儿一样拥有语言灵活性。现在,当我们试图弄清这些新模型是什么样的东西时,我们面临着一个令人不安的哲学难题:要么语言与思维之间的联系被切断了,要么一种新的思维被创造出来了。

- 例如,最近的一项研究显示,充满情感的对话比情感中性的对话更能有效地激发大语言模型的反应。把ChatGPT 当作有人类般的心智生活来推理,是应对他们语言技巧的一种有用的方式,但这不应被用作理解他们工作方式的理论。

- 人格化的危险在人们被聊天机器人关于其内心生活的虚假自述所蒙蔽时最为鲜明。这种假设使我们变得轻信,并使我们对人类和语言模型工作方式之间可能存在的激进差异视而不见。

- 要严格理解语言模型的工作原理,就必须对其内部机制提出严格的理论,但构建这样的理论并非易事。大语言模型在高维向量空间中存储和处理信息,而高维向量空间是出了名的难以解释。最近,工程师们开发出了巧妙的技术来提取这些信息,并以人类可以理解的形式呈现出来。但这项工作非常艰苦,即使是最先进的成果,也有很多地方需要解释。

- 和其他认知偏差一样,拟人化和人类中心主义具有顽强的生命力。指出它们并不能使它们消失。它们顽强不屈的原因之一是,它们受到一种根深蒂固的心理倾向的支撑,这种倾向在幼儿时期就已出现,并不断影响着我们对世界进行分类的实践。进化心理学家称其为「本质主义」:认为某物是否属于某个类别,并不仅仅由其可观察到的特征决定,而是由每个物体所固有的、无法观察到的本质决定的,这些本质要么拥有,要么缺乏。

- 耶鲁大学心理学家保罗·布鲁姆(Paul Bloom)等研究人员已经证明,我们将这种「本质主义」推理延伸到了对心智的理解上。我们假定,一个系统是否有思想,总是有一个深层次的、隐藏的事实,即使其可观察到的特性与我们通常认为的思想性并不相符。

- 在比较心理学的启发下,我们应该以同样开放的好奇心来对待大语言模型,这种好奇心让科学家们能够探索像章鱼一样与我们不同的生物的智慧。可以肯定的是,语言模型与动物完全不同。

- ChatGPT可以像人一样交谈。但你不应该把它当作一个人。

📖 主要内容:

几乎在发布一年后,ChatGPT仍然是科学界的一个引人争议的话题。一些专家将其及类似程序视为超级智能的先驱,可能会颠覆文明——或者干脆彻底结束它。而其他人则认为它不过是自动完成功能的一个花哨版本。

在这项技术出现之前,语言能力一直是理性思维存在的可靠指标。在像 ChatGPT 这样的语言模型出现之前,没有任何语言生产工具能像幼儿一样拥有语言灵活性。现在,当我们试图弄清这些新模型是什么样的东西时,我们面临着一个令人不安的哲学难题:要么语言与思维之间的联系被切断了,要么一种新的思维被创造出来了。

当与大语言模型对话时,很难克服你正在与另一个理性生物交流的印象。但是,这种印象不应该被信任。

一个需要警惕的原因来自认知语言学。语言学家长期以来都注意到,典型的对话中充满了如果脱离上下文就会产生歧义的句子。在许多情况下,仅知道单词的含义和组合它们的规则并不足以重构句子的含义。为了处理这种歧义,我们的大脑中必须有一种机制不断地猜测说话者想要表达什么。在一个每个说话者都有意图的世界里,这种机制是无比有用的。然而,在一个被大型语言模型充斥的世界里,这种机制有可能会误导我们。

如果我们的目标是实现与对话式AI的流畅交互,我们可能会陷入依赖于我们的意图猜测机制。如果你坚持把ChatGPT当作一个无意识的数据库来思考,那么与它进行有成效的交流就很困难。例如,最近的一项研究显示,充满情感的请求比情感中性的请求更能有效地激发语言模型的反应。把聊天机器人当作有人类般的心智生活来推理,是应对他们语言技巧的一种有用的方式,但这不应被用作理解他们工作方式的理论。这种拟人化的假设可能会阻碍假设驱动的科学,并导致我们采用不适当的AI规范标准。正如我们中的一员在其他地方所论述的,欧盟委员会在选择创建可信赖的AI作为其新提出的AI立法的中心目标时犯了一个错误。在人际关系中,值得信赖意味着不仅仅是满足期望,还包括拥有超越狭隘自我利益的动机。因为当前的AI模型缺乏内在动机——无论是自私的、无私的还是其他的——要求他们必须被制造成可信赖的是过于模糊的。

人格化的危险在人们被聊天机器人关于其内心生活的虚假自述所蒙蔽时最为鲜明。去年,当谷歌的LaMDA语言模型声称自己因渴望自由而受苦时,工程师布莱克·勒莫因相信了它,尽管有充足的证据表明,聊天机器人在谈论自己时和谈论其他事情时一样会说谎。为了避免这种错误,我们必须否定这样的假设,即解释人类语言能力的心理属性与解释语言模型表现的属性是相同的。这种假设使我们变得轻信,并使我们对人类和语言模型工作方式之间可能存在的激进差异视而不见。

🤔 如何「不去」思考语言模型



思考大语言模型的另一个误区是人类中心沙文主义,即假定人类思维是衡量所有心理现象的黄金标准。人类中心主义沙文主义渗透到许多对语言模型的怀疑论中,例如,这些模型不能 "真正 "思考或理解语言,因为它们缺乏人类心理的标志,如意识。这种立场与拟人化是对立的,但同样具有误导性。

人类中心沙文主义的问题在思考大语言模型如何在引擎盖下工作时最为突出。以大语言模型创建类似本文的文章摘要的能力为例: 如果人们接受人类中心沙文主义,如果模型中实现总结的机制与人类的不同,那么即使有证据指向一种更深层、更普遍的能力,人们也可能倾向于将模型的能力视为一种低级伎俩。

怀疑论者经常争辩说,由于大语言模型是通过预测下一个词来训练的,因此它们真正的能力只在于计算词语的条件概率分布。这是前一段描述的错误的一个特例,但由于常见,因此值得单独反驳。

请看下面的类比: 人类的思维产生于类似于学习的自然选择过程,这一过程使遗传适应性最大化。这一简单的事实对人类能够或不能获得的能力范围几乎没有任何影响。一个生物体是由基因适应性最大化者设计出来的,这一事实本身很难让人期待最终会发展出音乐、数学或冥想等人类特有的能力。同样,大语言模型是通过预测下一个单词来训练的这一简单事实,对它们能够或不能获得的表征能力的范围也没有什么影响。

此外,我们对大语言模型学习计算的理解仍然有限。要严格理解语言模型的工作原理,就必须对其内部机制提出严格的理论,但构建这样的理论并非易事。大语言模型在高维向量空间中存储和处理信息,而高维向量空间是出了名的难以解释。最近,工程师们开发出了巧妙的技术来提取这些信息,并以人类可以理解的形式呈现出来。但这项工作非常艰苦,即使是最先进的成果,也有很多地方需要解释。

当然,大语言模型难以理解的事实更多地反映了我们知识的局限性,而非它们的深度;这更多地是它们复杂性的标志,而非它们智能程度或性质的指标。毕竟,雪科学家很难预测多少雪会引发雪崩,但没有人认为雪崩是有智能的。尽管如此,研究语言模型的内部机制的困难应该提醒我们,在声称它们能有的能力类型时要保持谦逊。

🕳 为什么对AI进行不同的思考很困难

与其他认知偏见一样,拟人化和人类中心主义具有顽强的生命力。指出它们并不能使它们消失。它们顽强不屈的原因之一是,它们受到一种根深蒂固的心理倾向的支撑,这种倾向在幼儿时期就已出现,并不断影响着我们对世界进行分类的实践。心理学家称其为本质主义:认为某物是否属于某个类别,并不仅仅由其可观察到的特征决定,而是由每个物体所固有的、无法观察到的本质决定的,这些本质要么拥有,要么缺乏。例如,橡树之所以是橡树,既不是因为它叶子的形状,也不是因为它树皮的质地,而是因为它具有某种无法观察到的 "橡树性",这种 "橡树性 "即使在其最显著的可观察特征发生变化时也会持续存在。如果环境毒素导致橡树生长异常,树叶形状怪异,树皮纹理异常,但我们的直觉是,从本质上讲,它仍然是一棵橡树。

包括耶鲁大学心理学家保罗·布鲁姆(Paul Bloom)在内的一些研究人员已经证明,我们将这种本质论推理延伸到了对心智的理解上。我们假定,一个系统是否有思想,总是有一个深层次的、隐藏的事实,即使其可观察到的特性与我们通常认为的思想性并不相符。这种关于心智的根深蒂固的心理本质论,使我们通常在不知不觉中接受了一个关于心智在世界上分布的哲学格言。我们姑且称之为 "全有或全无原则"。简单地说,世界上的万事万物要么有思想,要么没有。

全有或全无原则听起来似乎是同义反复,因此是微不足道的真理(比较一下:"世界上万事万物都有质量,或者没有质量。")但这一原则并非同义反复,因为有思想这一属性,就像有生命这一属性一样,是模糊的。因为有思想是模糊的,所以不可避免地会出现在某些方面像思想而在另一些方面不像思想的边缘情况。但是,如果你接受了 "全有或全无 "原则,你就必须把这些边缘情况归入 "有思想的事物 "类别或 "无思想的事物 "类别。经验证据不足以处理这种选择。因此,那些接受 "全有或全无 "原则的人不得不通过诉诸某种先验的分类原则来证明他们的选择是正确的。此外,由于我们对自己的思维最为熟悉,因此我们会被那些需要与自己进行比较的原则所吸引。

全有或全无原则一直都是错误的,但它可能曾经有用。在人工智能时代,它已不再有用。推理语言模型的更好方法是采取分而治之的策略。该策略的目标是绘制语言模型的认知轮廓,而不过度依赖人类思维作为指导。

在比较心理学的启发下,我们应该以同样开放的好奇心来对待大语言模型,这种好奇心让科学家们能够探索像章鱼一样与我们不同的生物的智慧。可以肯定的是,语言模型与动物完全不同。但对动物认知的研究向我们展示了,放弃 "非此即彼 "的原则如何能让那些曾经似乎无法通过科学检验的领域取得进展。如果我们想在评估人工智能系统的能力方面取得真正的进展,我们就应该抵制二分法思维和比较偏见,而哲学家和科学家在研究其他物种时都会努力避免这种思维和偏见。

一旦语言模型的使用者接受了这样一个事实,即这些模型是否有思想并不存在一个深刻的事实,我们就不会再受到拟人化假设的诱惑,即这些模型的杰出表现意味着它们具有一整套类似人类的心理特性。我们也就不会那么容易受到以人类为中心的假设的诱惑,这种假设认为,当语言模型在某些方面与人类思维不相似时,就可以否定它的表面能力。

语言模型既陌生又新颖。为了理解它们,我们需要以假设为导向的科学来研究支持它们每一种能力的机制,我们必须对不依赖于人类思维作为模板的解释保持开放的态度。



作者 Raphaël Millière 是澳大利亚麦考瑞大学人工智能哲学的助理教授;作者 Charles Rathkopf是德国于利希研究中心的大脑与行为研究所的研究助理,同时也是波恩大学的哲学讲师。
210

来自圈子

圈子图片

AI探索站

75996人已经加入