2009 (41)
2010 (40)
2011 (28)
2012 (32)
2013 (30)
2014 (33)
2015 (25)
2016 (24)
2021 (1)
2023 (1)
机器人能不能有感情
我记得自己曾经讨论过类似的问题,现在再简单地说一下。
AI(人工智能)并不等于人的智能。因为我们对什么是人的智能所知的非常少,所以我们不能说人工智能就是模仿人的智能,一个不知道的东西怎么去模仿。我是搞过类似的技术开发的,这一类的事情最重要的是得要有一个指标,就是说,当我们说机器能模仿人的智能的时候,必定要有一个人什么是人的智能的指标,如果机器达到了这个指标,我们才能说机器做到了。那么事情就变得非常简单了,因为我们不知道什么是人的智能,所以拿不出这个指标,所以任何这一类的命题就都没有了意义。
那么人工智能怎么去理解呢?
我们可以把某些东西定义为智力。比如说,逻辑推理是一种智力,人可以逻辑推理(但某些人好像没有),所以人有智力;计算机有逻辑推理的能力,所以它也有智力。能下围棋是一种智力,所以人和计算机就都有智力,实际上计算机和人下围棋的方式是可以说是完全不同的东西。事情只能够这样说。
AI不是人的智能或者模仿人的智能,这其实是一个非常简单的问题,我不知道为什么那么多的人,还包括所谓的专家连这一点都弄不清楚!于是弄出一些稀奇古怪的问题,根本就不能回答。
语言哲学有一个重要的结论,任何问题都可以回答,但前提是提问的方式要对。比如说世界上有没有上帝,这个问题不是没有答案而是没有意义,因为什么是上帝几乎人人都有不同的看法,所以这个问题无法回答。你可以把那些自己认为是没有答案的问题认真分析一下,就发现都与有没有上帝的问题类似,而所谓的科学从来不提这种问题。
与此类似,感情是一个东西,人的感情是另一个东西,虽然它们相关。比如说,我认为狗是极有感情的,人在某些方面远远不及,但两者并不一样。所以说,当我们问机器人能不能有感情的时候,必须首先对感情下一个起码大概的定义,不然无法讨论这一类的问题。
但有一点可以肯定,机器人不可能有人的感情,因为那是一个永远的谜。要是从生物学的观点来看,情感这个东西与激素关系太大了。只要到了我这个年纪就知道科学永远不错,现在我看到年轻的女孩子的感觉和20岁时完全不一样了,说到底是激素水平不同了。机器如果没有激素,怎么能够再现人的感情。也许有人会说写一段程序来模仿,那么问题就又回来了,我们并不知道激素到底是怎么影响人的,这个程序怎么写?
现在许多人都都把AI说得无所不能,当然错误,因为它至少是有一件事情是做不了的,下面我们来讨论。
现代的计算机也好,AI也吧,它们都是建立在数理逻辑的基础之上,没有这个基础,什么都不会有,就像没有父母,哪里来的子女。数理逻辑是最重要的数学基础之一,它有很多子女,计算机科学只是其中之一。计算机说到底是一个逻辑处理器,这是硬件决定的,不可以改变。
这样一来,我们就知道AI是不能推翻数理逻辑的,你用一个基础发展了许许多多的东西,但是,无论如何,你不能够发展一个东西来推翻这个基础,因为这是逻辑矛盾。也就是说,只有在逻辑靠不住的情况下才能想象这种事情,那么既然逻辑都靠不住了,这种推翻是什么?
用严格的数学来说就是哥德尔不完全定律,单凭逻辑,我们不可能建立所有的数学。由于计算机只是一个高速的逻辑处理器,那么有一些数学定律是不可能用计算机得到,实际上可以说只是一些非常简单的数学系统在逻辑上是完备和充分的。
计算机不能推翻数理逻辑的意思就是它在数学上不可能有什么创新,所以我们不可能用计算机来建立数学理论。科学是一个实验的东西,做实验计算机没有问题,但更重要的是设计。我想用生物学作为例子,这个世界上从逻辑上说可能性实在太多了,我们根本不可能知道为什么就是现在这个样子。现在科学家大多数认为,人类在8,9万年前面临灭绝,只有大约不到两千,如果气候,食物链稍微有所不同,今天这个地球可能并没有人类,这在逻辑上并没有什么不可能。
如果我们知道了极终的科学理论,所有的事情才可能是逻辑上的唯一。但是这是不可能的,也许有可能,那也是终点而不是中途。所以现在我们用逻辑根本就得不到科学(当然科学必须合乎逻辑),所以计算机干不了这个事情。实际上当我们说:从逻辑上说,极终数学真理是不存在的,那么既然在数学上不存在,这个世界就不存在极终真理。
我不知道大家懂了没有,比如说理论物理与数学的关系极为密切,很多时候其进步是因为数学上的突破,如果数学上没有极终真理,物理上当然就不会有。
下面来讨论一些流行的说法。
机器人当然会自杀,因为计算机经常这样。过去的计算机当机是再平常不过了,这难道不就是自杀。计算机和外围设备是经常要有信息交换的,这其实就是一种语言,或者对话,如果出现意外的东西一点都不奇怪,也许是bug,或者硬件出了毛病。
总而言之,我们讨论计算机有没有意识可能是关键之处。但是,那个该死的问题又回来了,什么是意识?这个东西没有一个基本的定义,所有的讨论就是不知道在说什么。
当然,我不是说这种问题不可以讨论,而是说,当有人说这些事情的时候,你最好问一下,你说的意识是什么东西;同样,你自己这时也应该问一问自己,这样讨论才可以是有意义的。
楼主受古典逻辑的影响太深,把逻辑一词等同于古典逻辑,建议看一下非古典逻辑和概率逻辑等。例如关于什么是智能,人类并非如文中说的不知道,而是知道得不少,但未到终极的理解。许多基本概念都是如此。幸亏人的判断不全是依赖数理逻辑这样的确定性是非判断,否则我们都不知道怎么说话了。
机器人或人工智能在目前阶段上没有自主意识,说感情什么似乎太早。现在的讨论大多是面向未来的可能性。如果将来机器人可以自我学习与进化,对人工的依赖性减少,那么产生自主意识未始不可能,尽管这种意识与人的生物体为基础的意识有不同。这种可能性或许遥远,但现在就未雨绸缪地进行讨论也不是无意义的。