一方面AI天然要求人类“解缚”,另一方面人类又不得不考虑AI失控的巨大风险。
AI失控不单单是说几句疯话这么简单:
1. “黑箱效应”:我们容易验证的是AI输出的结果,中间过程的验证非常困难—它们太快了;而且我们既然使用AI就是要用AI去自动化,去提效,不可能人工去验证过程。最终我们只能靠AI去监督验证AI。这就会导致“甲壳背困境”,我们没法拥有可控的AI。靠概率在AI这也并不能有效解决可控性问题,很明显AI屡屡出现反人类言论就是例证
2. “基石效应”:当我们重要的科学成果实质上都是AI生成的时候,很难不让人担心—你坐在3000层高楼的办公室里,窗明几净,可地基怎么打的毫不清楚,这难免让人心寒。想想今年物理学、化学、生物学、医学的各种突破、奖项,哪个和AI无关呢?尤其是基础学科的结论,难免让人担心。也可能我水平太低,杞人忧天了
“有用”和“可靠”中间,大概也有无穷多种解法吧
你怎么看AI突破和AI失控这对矛盾?