即刻App年轻人的同好社区
下载
App内打开
YiqinFu
2年前
Wolfram 讲科学史,好像想通一件事。他说,1600 年科学思考数学化之后,我们才认为科学家应该能做很好的预测。在那之前人类根本没有这样的认知(例如知道一颗球掉下的速度,预测另外一个。)今天,GPT 大模型的出现,让我们又回到了 1600 年前的认知,即物理世界如果足够复杂,它不是 computationally reducible,即我们知道单个步骤,但许多简单操作连起来会发生什么,我们并不知道。(反证法,如果我们知道的话,我们直接用公式表达这些步骤的总和就可以。)

类比到我熟悉的社科,我以前一直觉得社科之所以是伪科学,是因为社科只能解释、不能预测,而对真·科学来说,解释和预测是一回事。用来解释的理论也能很好地预测。但 Wolfram 这个 computational irreducibility 的理论好像在说,足够复杂的系统我们确实最多搞懂很小的单元是怎样运作,但把这些单元串起来会发生什么,我们就不知道了。社科做的事情可能就是从过往的复杂事件中找到小单元弄清楚。但这些小单元的逻辑不够用来做预测(过度/不够拟合,数据分布改变)。预测社会的工作由非量化的投资人、公司战略部门完成。他们准确度肯定比科学家对物理世界的预测差远了,很多时候也错把运气当成实力,但平均来说还是一般人要强。

大语言模型的复杂程度让科学家也不再能预测,这点真的很有意思。按 Wolfram 的说法,过去也有很多这样的例子(最近的例如疫情),但 LLM 的通用场景、与大众生活的紧密关系好像尤其深刻地改变了 1600 年以来人类的认知。
818