强大的AI会主宰人类命运吗

近日,我参加了一场思想碰撞会,主题是“AI拐点与认知革命”。在会上,我做了个报告,题目是“当前的认识和前方最可能的场景”,我真诚地认为,以下就是AI拐点近前方最可能的场景,也是人类在这场AI革命中最好的结局:AI将拥有超强的智能,智能将变得很廉价;但AI不会拥有意识,所以也不会形成真的主动性;主动性仍然掌握在人的手中。

我这个结论是基于以下三个判断。

第一个判断是,AI还没有意识。

意识很重要,因为意识决定了人的主动性。很多人相信AI只要继续迭代下去就会自动涌现出意识,但是对大语言模型了解越多,我就越认为AI现在没有,将来也很难有意识。

因为“意识”和“智能”是两种不同的东西。智能是精巧的计算,意识是主观的体验。我渴了想喝水,这是我的意识;我知道怎么拿起水杯喝到水,这是我的智能。

目前为止,我们并没有统一的关于意识的科学理论,各路学者都有自己的说法,但基本可以确定的是:意识需要“自我感”,得有个“我”的概念;身体感觉对意识有决定性的作用,比如心跳,比如饿了;意识是大脑对世界的主观解读,是对真实世界的大大简化,甚至可以说是幻觉;意识是一种连贯的叙事,是一个人此前所有经历的产物。

而这些特点,恰恰是大模型所不具备的。

所有AI模型的“一生”,都包括“训练”和“推理”两部分。训练是数据的堆积,那不是人生经历,而一旦训练完毕,所有参数就锁死了,模型也不会再成长了。此后它就只是按照锁死的参数推理,不会在互动中改变自己,所以仍然没有生命。即便会有升级但也都是重新训练而已,它没有真正的经历,没有自己的故事,所以也就没有“自我”这个感知。

有时候用户感觉模型“活了”,就像有个自我一样——但那只是它在模仿,在扮演。它演谁像谁,恰恰说明它没有自我。

第二个判断是,高水平智能是规模化的结果。

麦克斯·班尼特的《智能简史》这本书最重要的一个洞见,就是我们的大脑在解剖学意义上跟黑猩猩几乎没有区别,我们只是多了一个让语言传承的能力。

语言能力一开始也没让我们强出多少,是此后一代又一代人反复积累知识,特别是发明了文字来记载知识,人类文明才突飞猛进。我们现代人智能高不是因为个体聪明,而是因为传承了人类群体积累的知识。

也就是说,人类智能的发展不是靠单个大脑厉害,而是靠知识的积累。

所以高水平智能并不神秘,只要继续规模化就好。这决定了AI的智能一定会超过人的智能——正如现代人的智能超过了古人的智能。

第三个判断是,选择、决策能力和高水平智能没关系。

一切决策都可以归结于从若干个选项中做出选择,而智能的作用只是让你清楚理解每个选项意味着什么。AI可以帮助我们理解选项,但一旦选项已经清楚,剩下的事情就不是聪明不聪明的问题了。

眼前有个好东西和一个不好的东西,你不需要有很高的智能就知道应该选好东西。这件事的门槛很低。比如,完全相同的书,这家店卖100元,那家卖80元,任何人都知道应该选80元的,你不需要智能——当然真正的决策没有这么简单。决策往往涉及在不同维度间取舍:便宜的东西往往没有那么好,好的东西往往比较贵,这时候怎么选呢?

视野广、格局大的人会做出更明智的选择,但正如基思·斯坦诺维奇在《机器人叛乱》一书中所说,明智选择的能力和智商是两回事。明智靠的也不是智能,而是价值观、偏好、个性和现场的身心状态。而这些东西是由每个人独特的基因、身体和人生经历决定的,它涉及人的意识。

当然,不是每个人都很明智,大多数人都充满偏误。但是,就明智选择而言,人类之中的高手相对于AI没有明显弱势。更何况承担决策后果的是人,而不是AI,所以AI公司也没动力把决策权交给AI,他们不会让AI在决策路径上发展。

如果以上三个判断是对的,那我们就大可放心,大权还在人类手里。高水平智能会变得普及,人人都能调用,但不会很危险。真正危险的,是人。正如枪没有道德不道德的问题,问题是枪在谁手里。

当人人都能调用高级智能,会把每个人都变成高级人才吗?我认为不会。

这一点我们只要考察历史就知道。从很早以前书籍就变得廉价了,但读书人反而好像变少了;互联网时代,人人都能上网搜索各种知识,但并没有很多人经常搜索知识;现在多数人都能用AI,但每天用AI的人也不是很多。

所有的工具都有使用门槛,要越过门槛总要付出一些代价。比如,面对书籍,你得有时间、精力和兴趣,比如,面对AI,你得知道该提什么需求、怎么提需求才行。

因此,AI会改变很多人的命运也就成了个伪命题。不论什么时候,每个人的命运都应该自己做决定。

而且如果我们有更包容的视野,就会发现命运并无高低之分。有的人认为在大学做学问是最好的职业,有的人则不愿意跟书本打交道,宁可去开出租车。

未来,最可能的场景是,所有人的生活都会变得更方便,很多人会在AI助手的帮助下做出更明智的选择,整个社会因此会变好,但人与人之间的差异将继续存在。