李录谈AI:
AI是我们今天最重要的技术,但它的具体影响仍未可知。与过去相较,它是像iPhone出现那般重要,还是像互联网那般重要呢?再或是像蒸汽机的发明、农业的发明那般重要?还是像再之前发现了火那般重要呢?
看起来火比农业更重要,农业又比后面的蒸汽机重要,因为它开创了一整个农业文明。互联网或者电的发明又比iPhone更加重要,历史的发展一步一步,每一项发明的重要性及其对全球的持续影响都不太一样。
在人类历史上,曾经有过数次里程碑式的发现:火、轮子、农业、蒸汽机、电、互联网,所有这些技术最后都全方位地改变了人类的文明。如今的AI至少是一个全方位的技术,它会影响到人类生活、商业的各个方面,但是它怎么影响?影响到什么程度?今天没有一个人能够真正说得清。
我们有很多对未来的预测,按照这样的预测可以做很多事情,但是其实没有人能够确切地知道这项新技术最终会对人类社会和文明产生怎样的影响,它仍处在进行时过程中。AI带来了巨大的希望,同时也带来巨大的风险,两者同时存在。
以前的技术都是在增强我们身体各个器官的能力,其中最重要的是肌肉的力量。从蒸汽机开始,发明的是一种动力,这个动力可以用在所有方面。从数字革命开始,一直在拓展的是人脑的功能,包括电脑、半导体技术带来的一系列通信技术的进步。但是AI是通用型的,是对于智能的全方位拓展。
我们谈了芒格之理性的四个不同层面,人类的理性并不仅仅是指逻辑思维,实际上是人类这一物种相对于其他物种所具备的优势。如今的AI至少是要扩大人类这一物种在头脑上的优势,这种拓展带来了巨大的机遇,也是巨大的挑战。其机遇在于人类现在因为知识和智能所受到的各种限制都有可能被突破,从治疗癌症、延长寿命到无所不知,这是一个了不起的伟大希望。
但是另一方面它有可能威胁到人类作为最智能的物种在地球上的存在,而这正是人类文明的根基。人类大概是最后一个大物种,我们的存在只有二十几万年的历史,所以我们是集整个15亿年进化历史之大成者,我们的头脑具备了超过一切物种的最高智能。但是如果AI的发展哪一天让人失去了对它的控制,AI的智能就可能超过人的智能,这样就使得人类不再是地球上最聪明的物种。
这对于人类而言是生存性的危险,因为我们作为地球上最具决定性的物种的地位也就随之消失。这种可能性是大还是小?会发生在什么时候?我们都不知道,只知道可能性是存在的。只要AI的自学习、自决定能力一旦形成,它就可能在不受人监控的情况下自我进化,进化到一定程度的时候就会超过人类,而且会远超过人类。
今天AI浪潮的发展方向其实都是让它在数字和实际的空间范围之内逐渐增强自学习能力,逐渐去具备人类已有的知识和能力。所以这种风险是真实存在的,当这种风险一旦成为现实的时候,人类的命运就会随之被彻底改变。
这个生存危机并不是说AI一旦全方位超过人类之后,它马上就把人类都消灭。但AI把人类当作自己的工具,是完全有可能的。我们人类就把地球上其他的物种几乎都当作了工具,或者食物、景观、繁殖的对象、能量的来源。最高级别大概是宠物。这不是因为我们对其他物种有着与生俱来的憎恨,而是因为我们的智能远远超过它们,差别太大,所以我们不具备同理心。AI将来如果远远超过人类的所有方面,那么同样,让它具备对人类的同理心就会很难。
所以我第三个观点就是AI的技术一定要在可控制的方向上去发展。它要求政府和私营部门全方位合作,从而能够及时地形成一个合理、可行、有效的治理构架,而且这个构架能把全人类所有的政府和私营部门都团结在一起。因为AI的问题是整个人类的问题,就跟外星人、刚刚经过的疫情、20世纪的核威胁是一类的。
人本身也是自然进化出来的。当人类从大猩猩进化过来的时候,大概只有2-3%的基因变化,这就是我们和大猩猩之间的区别,而且进化很多都是意外。
此外,我们如果用科学思维来理解这个世界的话,其实整个宇宙绝大部分是不相关的、完全随机的。有一部分高相关性,我们叫物理定律、数学定律,但是这些定律在一定的条件下也会发生改变,所以它实际上涉及一个更高的相关性。AI之所以这么有用,是因为它主要采取的办法就是对所有的因素建立相关性。
到目前为止,绝大部分一般的相关性人类是没有办法去理解的,因为它的函数太大。随着计算能力的不断提升,在过去这11年里计算能力提升了100万倍,下面可能还有几百万倍的提升,我们可以把所有的数据、人类所有产生的东西都拿来计算,最后建立起相关性的科学。这个科学在这之前是不存在的,所以AI最终产生的智能未必和人类的智能相同,但可以包含人类的智能。就像从大猩猩转化到智人时产生的2%-3%的区别,就让我们包含了大猩猩所有的智能,但是超过它的智能。
在无穷尽的可能性之下,我们今天可以在几兆亿的因素中建立科学的相关性。比如我们今天的对话,根据排列组合可以以几亿种不同的方式进行,但最终发生了过去的两个小时对话。是什么因素导致了这种情况?为什么现在我们能够做这样的提问与回答?这其中都是相关性。你我是很难预测的,但AI通过对你、我和其他在线上的几位近期思考的问题做高度的相关处理,它能够在几亿种可能性中判断出最有可能进入到我们今天提问环节的一种。这样的科学在之前是不存在的,因为我们没有这种计算能力,也没有办法获取这么多的信息,但是AI现有的技术就可以做到这一点,所以大规模的公司都能够去做高级的推送。
新出现的智能,并不会和人类智能一模一样。它可以是和人类智能不一样的,它包含了各种可能性。它可以没有人类的灵魂,但它可以比人类更加智能;它可以跟人类的考量不一样。就像猩猩对问题的考量和道德判断就和人类不一样。但我们并不关心大猩猩的道德标准,因为我们的智能远远超过它,所以可以用我们的标准去完全压倒它的标准。这是我们不希望看到的。
当出现了全方位超过且永远不可能追上的智能的时候,当我们不再是地球上最智能的物种的时候,我们面临的是丢掉控制的风险,这是人类共同面临的最大的、真实的生存风险。至于它发展出什么物种,其实并不重要,我们也不太能理解,就像今天的大猩猩也不太能理解我们为什么要讨论这些问题。何况我们对世界的理解本来就非常狭隘。这个世界95%都是暗物质和暗能量,我们对此毫无所知,所以叫它dark matter, dark energy。这个世界到底是不是平行的我们也不知道。
所以尽管存在着中美之间的竞争,尽管存在着中东问题、乌克兰和俄国的冲突,其实人类面临更多的是共同的挑战。这个时候我们更需要芒格谈到的人类共同的精神。芒格先生一辈子都非常推崇和尊重中国文化、中国传统,非常希望中美之间能够长期合作,这是我想最后谈的一点,也是芒格先生留给我们的很大的遗产。其实在中国和美国,都有同样敬重他的人,相信他的理念的人。他永远持有的看法就是中美之间应该永久性地合作,我希望有一天它会发生。