关于 ChatGPT 这类 AI 的两个普遍批评的讨论
- AI 不能去坐牢,所以不能取代律师医生会计等职业。这个问题几个方面考虑,一、大家对 AI 的道德风险的担忧相对特定的人而言较低,二、AI 技术专业度很快会赶上人类水平,三、AI 的成本相对人大幅降低,四、AI 也会有惩罚机制,出现管理 AI 的 AI,有 AI 的“监狱”和“死刑”。这样,AI 毫无疑问会取代这些岗位。
- AI 不能理解,只是基于统计的猜测,没有智能。这部分人对我们人类精准的形式逻辑有种崇拜,但这种形式逻辑能陪我们走多远?你没有学过语法就会讲话,没有学过肌肉动力学就可以跑步,我们人类在处理这个世界的时候本身也不存在真正的理解。另外我们对这个世界的各种解释大部分都是一厢情愿,只是在一定尺度内的拟合。非常遗憾,我们无法对这个世界进行预测,我们常常觉得自己预判了后面会发生什么,但其实只是我们的尺度不够大,相应的误差我们无法测量,但只要把时间和空间稍微拉大,人类就无能为力。不需要天文单位,就想想我们的形式逻辑现在能够精确预测 1 年后的什么呢?没有,我们什么都预测不了,只能通过经验模型,有个基于概率的判断。“所有模型都是错的,但有些有用”。没必要对人的逻辑过于崇拜,对于机器来说,形式逻辑的推理并不是一个困难的事。真正强大的是放弃形式逻辑这种投机取巧的工具还能在世界存活。智慧是解决复杂问题的方法,这种智慧不一定靠逻辑,甚至不靠自我意识。自我意识是智慧对智慧的感知和反思,一种元智慧,这种对一阶智慧的抽象提高了效率,但也必然丢失了细节,不可能全面反映真实世界,她会认为这个世界有 N 种可能,就像求导把常数项丢失,原函数就有了无穷的可能。脱离形式逻辑的智慧就像老师上课问问题,你把答案脱口而出,没有逻辑过程你就是知道;一只足球向你飞来,你没有去计算轨道和自己应该用多大力气起身,你下意识就躲开。你知道的答案是依“直觉”计算,现在批评 AI 没逻辑,似乎并站不住脚,何况,AI 学逻辑,以后将比人简单。