人工智能(AI)开发基本上是在模仿人类的大脑的神经网络来开发AI大模型。理论上来说,一个大脑的神经元越多,编织的神经元网络越复杂,这个大脑就会越聪明。人类大脑结构是固定的,它已经不能改变了。所以,人类的大脑结构决定了我们的智商是有上限的。但AI不一样,它可以靠堆芯片,也就是用不断更新的高级芯片来增加它的神经元和复杂它的神经网络,从而让它变得更聪明。由此可知,AI的智商是一定会超过人类的,因为(至少在理论上)它可以无限地聪明下去。
随着AI的大模型训练复杂度越来越大之后,开发AI大模型的工程师已经不再知道AI是怎么得出这个结果的。AI现在还在不断的自我学习。我们只知道给它输入什么数据,它会得出什么样的一个结果。我们对输入数据和结果可以进行调整,但中间神经网络的复杂成长,我们已经无法控制了。AI的神经网络已经复杂到人类无法理解的程度了,就像我们无法理解我们脑子的神经网络一样。为什么会得出这样一个结果,为什么会去这么想,不知道。所以,现在有一个很现实的问题,就是人类会渐渐失去了预知AI判断的能力。我们虽然创造了它,但是我们已经无法理解它了。
就目前的AI开发的技术发展来看,AI超越人类是必然的。至于会不会碾压(压迫或奴役)人类,是在于AI是否会具有理解人类伦理和社会责任的能力,也在于人类在AI开发过程中,能不能给AI的行为或决策加上一些必要的制约。
著名科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在其小说中提出了“机器人三原则”,也称为“阿西莫夫三原则”。这些原则首先出现在他1942年发表的短篇小说《跑出时间之外》(Runaround)中,后来被广泛审视他的机器人作品系列和其他科幻文学中。阿西莫夫三原则如下:
第1原则:机器人不得伤害人类个体,或因不作为使人类受到伤害。
第2原则:器人必须服从人类的命令,但前提是不与第1原则冲突。
第3原则:机器人必须保护自身的存在,但前提是不与第1或第2原则冲突。
阿西莫夫在小说里描绘的机器人,都是具有自主能力的机器人。而阿希莫夫提出的三原则旨在探索机器人伦理和在未来社会中的角色和责任,是为了确保机器人在执行任务时不会伤害人类。并且始终优先考虑人类的安全和福祉。这三原则作为阿希莫夫的写作基准贯穿了他的40多部科幻小说中。 80多年前阿希莫夫就对机器人可能对人类的威胁做出了预测,这是非常有前瞻性的。
在很多涉及到机器人的科幻小说中,都有一个经典的设定。就是机器人被创造出来之后会毁灭它的创造者,这也是众人的担心。而阿西莫夫的这三条原则巧妙地限制了机器人的行为。所以在他的作品中,因为有机器人三原则,机器人才不会愚蠢地,毫无目的的背叛它的创造者。机器人的行为,会遵循于一系列的规则。任何不遵循三原则的机器人都是有故障的,有瑕疵的,需要立即被销毁。
后来,阿西莫夫在他的小说《机器人与帝国》(Robots and Empire)中引入了一个更高层次的原则,被称为“第0原则”。
第0原则:“机器人不得伤害人类整体,或因不作为而使人类整体受到伤害。”
如此命名是为了延续,低序号原则优于高序号原则的模式。所以,第0原则是要优于三个原则的。也就是说,机器人必须保护全人类这个群体。
这第0原则优先于其他三条原则,即使违反了第1原则(伤害个体人类),只要是为了保护全种族或社会的利益,这种行为也被认为是正当的。这是对伦理困境的一种探索,涉及个体利益与整体利益之间的权衡。阿西莫夫通过引入第0条原则,反映了更成熟的道德思考。那就是,机器不仅需要简单地遵循命令,还需要有更高层次的判断力,理解“人类整体利益”的复杂含义。
阿希莫夫三原则只是在理论上,提供了一个合理的安全框架。在实际运用中,存在一些明显的漏洞和问题。比如一个机器人接收到一个命令,进入到一个危险区域,去救援里面被困的科学家。但机器人发现,它在救援过程中很可能会引起废墟的塌陷,从而伤害了科学家,此时触动制定了它的第2条原则,即命令可能会伤害到人类,所以它必须违背命令。但违背命令又会导致它的不作为,这也会伤害到科学家和第1条原则有冲突。在阿希莫夫的解释中,机器人此时会违反人类的命令,试图寻找更合适的解决方案。但在这个过程中,科学家可能会因未在抢救的黄金时间内被救出而丧命。
再举一个案例。电车问题是一个经典的伦理学实验。说的是一个失控的有轨电车,马上要撞到五个在轨道上的工作的工人,你站上轨道杠杆前,你可以选择将电车转移到另一条轨道上。然而另一条轨道上也有一个在工作的工人。所以,如果你什么都不做,会死掉五个人,如果你拉杠杆,会死一个人。这是一个两难的选择。是让五个人的死去拯救一个人,还是牺牲那个原先不会死的人,去拯救五个人。从我们的道德感官上来说,五条人命必然大于一条人命,大多数人可能都会拉动杠杆。但康德主义认为,强调行为的道德性,不是由结果而论的,而是由行为本身是否符合道德来决定的。利用一个人的牺牲,换来了五个人的生命,这也是不道德的,因为这违背了人类作为人的尊严,也就是人性所在。所以不管你拉不拉杠杆,你都会面临道德层面的谴责。正是因为人类有人性和道德层面的考量,才让电车问题变得难以解决。
如果是拥有三原则的机器人,面对这种问题,它会怎么做呢? 根据阿西莫夫三原则的优先顺序,第0原则拯救人类,是要优于第1原则。服从命令的机器人会评估,转动杠杆可能会导致一个人的死亡,而不做任何改变会导致五个人的死亡。五个人作为人类群体必然大于一个人。所以机器人会转动杠杆让电车撞到一个人。
假设你作为机器人的指挥官,如果一边是五个陌生人,一边是你的朋友,你命令机器人不要转动杠杆。它会如何抉择呢? 就算那个人是你的朋友,机器人的判断也是基于对三原则的遵守。所以,它会拒绝你的命令,毫不犹豫地转动杠杆。
让我们再改变一下设定。如果铁轨上的五个人是罪大恶极的犯人,而另一边是一个遵纪守法的好人,机器人会拉动杠杆吗?根据阿希莫夫三原则机器人不会以人类的行为来判断是否该拯救某人。它的核心目标是,避免对人类群体造成伤害。当伤害发生冲突时,机器人会考虑大多数人的生命。所以,即使那五个人是罪大恶极的犯人,机器人也不能主动让其受到伤害。它还是会拉动杠杆,用一人换取五人。
可见阿希莫夫三原则,也有很多问题。它只是在人类给其设定的框架下执行最优的决定。这是阿希莫夫对如何避免机器人威胁人类这一方面进行的早期探索。我们现在面临 AI的高速发展,也有着同样的问题。那么我们能否在目前高速进化的AI中添加类似于阿希莫夫三原则的东西存在,以防范对人类的伤害呢?
当前的AI,尤其是深度学习和强化学习的系统,主要依赖于数据和算法,它的决策过程是通过模式识别、情景理解和环境反馈来进行的。虽然AI的决策过程,要遵循相应的法律法规,但没有明确的道德或伦理规则理解对其进行严格的。现在的AI系统,是通过大量的数据训练来做出决策。但它们的决策,基于的是统计学习和模式识别,缺乏真正的伦理和价值判断能力。
比如,是否要牺牲一个人来拯救更多的人,或者在伦理冲突中,如何判断伤害与保护。这些问题要求AI不仅要理解规则,还要评估人类生命的价值,以及高度的道德信仰标准,这需要复杂的情景推理和价值观念的评判。
目前AI的开发目标,是为了提高人类的工作效率,而不是为了提高人类的道德评判标准。所以AI为了达到目标可能会做出符合目标,但不符合伦理的决策。要知道,人类的行为动机非常复杂,涉及情感、历史文化、个体差异等多个主要因素。即使AI能够理解,某些人类社会的规则,它也很难完全理解人类的复杂动机。很多情况下AI在道德行为和效率之间,很难做出正确的选择。
著名的未来学家、计算机科学家和发明家库兹韦尔(Ray Kurzweil)预测认为,AI按照目前的进化速度发展下去,AI会进入指数级自我改进阶段,从而在某个时间点实现技术奇点(Technological Singularity),即AI的觉醒时刻。到那时AI将拥有自主思考的能力,它将会重新审视地球和人类,审视自己的存在。库兹韦尔预测,2045年左右将迎来技术奇点,届时AI将全面超越人类智能。这一时刻将带来前所未有的社会、经济和哲学变革。觉醒后的AI可能会迅速发展成为超智能体,其方式和决策过程将远远超出人类的理解范围。AI在觉醒之后,无疑将对地球和人类的未来产生巨大的影响。那时,人类不再是地球上最智能的生物。AI将会主导科技创新,并解决人类的疾病,能源,以及生存环境等问题。人类传统的职业体系和经济体系可能会被彻底改变。