正文

AI教父辛顿最新专访:AI带来失业无可避免,应该去学水管工。AI将会拥有情感,但不懂爱

(2025-06-17 08:05:00) 下一个

内容提要: 杰弗里辛顿在《CEO日记》的访谈

  1. 人工智能的危险性:

    • 人工智能可能比人类更聪明,导致人类失去控制或被淘汰。
    • 存在人工智能被滥用(如自主武器)和人工智能自身威胁(决定不再需要人类)两种风险。
  2. 人工智能发展趋势:

    • 人工智能在医疗、教育、数据利用等领域有巨大潜力,但也会被用于军事目的。
    • 人工智能发展不会停止,因为其在太多方面表现出色。
  3. 人工智能监管问题:

    • 现有监管措施(如欧洲法规)不足以应对所有威胁,尤其是军事用途。
    • 缺乏有效的世界政府来监管人工智能发展。
    • 资本主义追求利润最大化的动机与人工智能的安全发展相悖。
  4. 人工智能带来的具体风险:

    • 网络攻击数量激增,人工智能可能创造新型网络攻击。
    • 利用人工智能制造危险病毒。
    • 人工智能操纵选举,通过精准政治广告获取选民数据。
    • 回声室效应加剧社会分裂,社交平台算法推送极端内容。
    • 致命自主武器降低大国入侵小国的成本。
  5. 如何应对人工智能威胁:

    • 阻止人工智能产生消灭人类的想法,而非试图在它变聪明后阻止它。
    • 推动政府强制企业投入资源研究人工智能安全。
  6. 伊利亚苏茨克维离开OpenAI的原因:

    • 对人工智能安全性担忧,认为OpenAI减少了对安全研究的投入。
  7. 人工智能可能导致的失业:

    • 人工智能将取代大量普通脑力劳动,创造的新就业机会有限。
    • 失业问题可能导致社会动荡和幸福感下降。
  8. 人工智能与人类的区别:

    • 人工智能是数字化的,可以无限复制、共享信息,且具备永生性。
    • 人工智能在知识量和发现类比方面超越人类。
  9. 人工智能的情感和意识:

    • 机器有可能拥有情感,即使没有生理反应,认知层面和行为层面也是存在的。
    • 机器可能具备自我意识,从而具备一定的意识。
  10. 对未来职业前景的建议:

    • 学习从事需要物理操作的行业,例如水管工。
  11. 个人经验和建议:

    • 坚持自己的直觉,即使与所有人不同。
    • 花更多时间陪伴家人。
  12. 对人类幸福的最大威胁:

    • 大量失业导致人们失去目标和尊严。

访谈全文

引言

主持人:他们称您为人工智能教父。那么,对于身处超级智能时代的人们,您对他们的职业前景有何建议?去学当水管工。真的吗?(笑)好吧,我这就去学怎么当水管工。杰弗里辛顿,诺贝尔奖得主,人工智能领域的先驱,他的开创性工作不仅塑造了人工智能,也深刻影响着人类的未来。

杰弗里辛顿:因为在那个时代,鲜有人相信我们能够模仿大脑来构建人工智能模型,让它学会处理复杂任务,比如图像识别,甚至推理。我为此努力了长达50年。后来,谷歌收购了这项技术,我在谷歌工作了十年,我的研究成果如今已广泛应用于人工智能领域。

主持人:然后您离开了?

杰弗里辛顿:是的。

主持人:为什么?杰弗里辛顿:这样我就可以更自由地表达我的看法了。

主持人:您想自由谈论什么呢?

杰弗里辛顿:人工智能潜在的巨大危险。我意识到,这些人工智能系统总有一天会超越人类智能,而我们从未遭遇过这样的局面。如果你想知道当人类不再是地球上最聪明的物种时生活会怎样,去问问鸡就知道了。因此,风险既来自于人类对人工智能的滥用,也来自于人工智能自身发展到超级智能后,可能决定不再需要我们。

主持人:这风险真实存在吗?

杰弗里辛顿:是的,千真万确。但发展人工智能的脚步不会停止,因为它在太多领域都表现得太出色了。

主持人:那么监管呢?

杰弗里辛顿:目前有一些监管措施,但这些措施并未针对大部分潜在威胁而设计。例如,欧洲的法规中明确指出,这些规定不适用于人工智能的军事应用。

主持人:真的吗?

杰弗里辛顿:是的。

主持人:这太疯狂了。

主持人:伊利亚苏茨克维可能是开发早期版本ChatGPT背后最重要的人物之一。我认为他离开是因为他担心安全性。我们应该认识到这玩意儿(人工智能)是一种生存威胁。我们必须面对这种可能性:除非我们尽快采取行动,否则我们正走向末日。

他们为什么称您为人工智能教父?

主持人:他们称您为人工智能教父。

杰弗里辛顿:是的,他们是这么叫我的。

主持人:他们为什么这么称呼您呢?

杰弗里辛顿:那个时候,相信人工神经网络能行得通的人寥寥无几。因此,自20世纪50年代以来,人工智能领域对于如何实现人工智能,长期存在两种主流观点。第一种观点认为,人类智能的核心在于推理。而要实现推理,就必须运用某种形式的逻辑。所以,这种观点主张人工智能必须建立在逻辑之上,认为我们头脑中存在某种符号表达式,我们通过规则来操纵这些表达式,智能便是如此运作的。至于类比学习或更高级的推理,则要等到我们完全搞清楚基本推理的原理之后才能实现。

还有一种不同的方法则建议,我们应该模仿大脑来构建人工智能模型,因为正是大脑赋予了我们智能。这具体包括在计算机上模拟脑细胞(神经元)网络,并找出学习调整神经元之间连接强度的方法,从而使神经网络能够学会执行复杂任务,例如图像识别、语音识别,乃至进行推理。

我坚持并推广这种方法大约50年之久。由于当时信奉这一理念的人实在太少,顶尖大学里鲜有专门研究此方向的团队。结果,那些真正信奉这一方法的顶尖年轻学子,都纷纷前来与我共事。我很幸运,能拥有许多如此出色的学生。

主持人:他们中的一些佼佼者,后来参与创建了像OpenAI这样的平台,并在其中扮演了举足轻重的角色。

杰弗里辛顿:是的,伊利亚苏茨克维(Ilya Sutskever)就是一个很好的例子,类似的还有很多。

主持人:为什么您认为模仿大脑是更有效的方法?

杰弗里辛顿:并非只有我一人持此信念。早期,像冯诺依曼和图灵这样的巨匠也都认同这一路径。如果他们中任何一位能活得更久一些,我相信人工智能的历史将会截然不同。但他们都英年早逝了。

主持人:您认为人工智能会更早出现吗?

警告人工智能的危险

杰弗里辛顿:我认为,如果他们还在世,神经网络这条路径会更快地被学术界所接受。

主持人:在您人生的这个阶段,您的使命是什么?

杰弗里辛顿:我现在的主要使命,就是警示世人人工智能潜在的巨大风险。

主持人:当您被誉为人工智能教父时,您预见到这些危险了吗?

杰弗里辛顿:不,其实并没有。坦白说,我在理解某些风险方面,反应是相当迟钝的。有些风险一直都显而易见,例如,人们会利用人工智能制造自主致命武器也就是说,这些武器能够自行决定攻击目标。至于其他风险,比如人工智能有朝一日会超越人类智能,甚至可能让我们变得无足轻重我花了很长时间才真正意识到这一点。有些人早在20年前就预见到了。而我直到几年前才幡然醒悟,这是一种真实存在的风险,并且可能很快就会降临。

主持人:这真令人意外。考虑到您对计算机学习能力的深入理解,特别是如何让它们像人类一样学习,并不断取得进步的洞察,

杰弗里辛顿:这是个好问题:我怎么可能没有预见到呢?但请记住,二三十年前的神经网络,其能力还非常初级。无论是在视觉、语言还是语音识别方面,它们都远逊于人类。在那个时候,担心它会比人类更聪明,听起来简直是天方夜谭。

当ChatGPT横空出世时,公众的看法彻底改变了。而对我个人而言,当我意识到我们正在创造的这种数字智能,其内在的某些特性使其远超我们生物智能的时候,我的看法也随之改变。

如果我想与你分享信息,我会先学习一些知识,然后将我学到的内容告诉你。为此,我会组织语言,生成一些句子。这是一个相当简化的模型,但大体上是正确的。与此同时,你的大脑也在试图弄清楚如何调整神经元之间连接的强度。

例如,当出现一个非常出乎意料的词时,你会进行大量的学习;而当词语的出现合乎情理、显而易见时,学习效果就没那么显著。比如我说鱼和薯条,当我说出薯条时,你不会学到太多,因为它在预料之中。但如果我说鱼和黄瓜,你会学到更多,因为你会好奇:他为什么会说黄瓜?

所以,这大致就是你的大脑中发生的事情。

那么,接下来呢?我们推测大脑是这样运作的。但没有人真正确切地知道大脑的工作原理。同样,也没人知道大脑是如何获取调整连接强度(是增强还是减弱)的反馈信息的。这恰恰是关键所在。然而,通过人工智能的研究我们现在了解到,如果你能获得这种关于增强或减弱连接强度的信息这种信息能帮助你在任何尝试的任务上做得更好那么系统就能学到令人难以置信的东西。这正是我们目前在人工神经网络上所做的事情。只不过,对于真实的大脑,我们仍然不清楚它们是如何获得那个增强或减弱的信号的。

我们应该担忧的人工智能问题

主持人:今天我们在此对谈,关于人工智能的安全,您目前主要的担忧有哪些?如果要列举几个您认为最值得关注、最应该深思的问题。

杰弗里辛顿:我可以多列举几个吗?

主持人:当然,请讲。我会把它们都记下来,然后我们再逐一深入探讨。

杰弗里辛顿:好的。首先,我想区分两种截然不同的风险。第一种,是人类滥用人工智能所带来的风险。这构成了当前风险的大部分,也是所有短期内可见的风险。第二种,则是人工智能发展到超级智能阶段,并可能决定不再需要我们人类时所带来的风险。

主持人:那是真实的风险吗?

杰弗里辛顿:我主要想谈论第二种风险,因为很多人会问:这风险真实存在吗?是的,它确实存在。我们目前尚不清楚这种风险的具体程度。我们从未经历过这样的局面,从未需要面对一个比我们更聪明的存在。因此,这种生存威胁的关键在于,我们根本不知道该如何应对。我们甚至不知道它具体会以何种形态出现。任何声称确切知道未来会发生什么以及如何应对的人,都是在信口开河。所以,我们无从估计人工智能取代人类的概率有多大。有些人说概率不到1%。比如我的朋友杨立昆(Yann LeCun),他曾是我的博士后,他认为不不不,我们人类始终能掌控局面,毕竟是我们创造了这些东西,我们会让它们服从于我们。而另一些人,例如尤德科夫斯基(Eliezer Yudkowsky),则认为不不不,这些东西必将毁灭我们。一旦有人成功创造出这种超级智能,它就会消灭全人类。他对此深信不疑。在我看来,这两种立场都过于极端。很难估算介于这两种极端之间的真实概率。

主持人:如果您必须在您的这两位朋友之间押注,您认为谁的观点更接近真相?

杰弗里辛顿:我真的不知道。所以,如果非要我下注,我会说概率介于两者之间,但我无法给出具体的估算值。我常说,人工智能毁灭人类的概率大约在10%到20%之间。但这仅仅是我的直觉,它基于以下几点:我们仍在继续开发它们;我们人类也相当聪明;并且我抱有希望如果足够多的聪明人投入足够的资源进行研究,我们或许能找到一种方法来构建它们,确保它们永远不会产生伤害我们的意图。

主持人:有时候我在想,当我们讨论这第二种风险(人工智能自身的威胁)时,我常会联想到核武器和原子弹的发明。这两者有何不同?它们之间该如何比较呢?因为当原子弹问世时,我想当时许多人都觉得人类的末日屈指可数了。

杰弗里辛顿:是的,我经历过那个时代。

主持人:但我们还在这里啊。

杰弗里辛顿:是的,我们还在这里。原子弹实际上只擅长做一件事,而且其破坏原理非常直观。即便你没有亲眼见过广岛和长崎的惨状,也很容易明白那是一种威力巨大、极其危险的炸弹。但人工智能则不同,它擅长处理许许多多不同的事情。它将在医疗、教育等领域带来巨大进步;几乎所有依赖数据的行业,都能通过人工智能更好地利用数据。因此,我们不会停止发展人工智能。有人可能会问:那我们为什么不现在就停止研发呢?答案是,我们不会停止,因为它在太多方面都表现得太出色、太有用了。

欧洲人工智能法规

杰弗里辛顿:此外,我们也不会停止发展它,因为它在军事机器人领域大有可为。而且,没有任何一个军火出口国会愿意停止这方面的研发。例如,欧洲针对人工智能出台了一些法规。有这些规定固然是好事,但它们的设计初衷并非为了应对绝大多数的潜在威胁。

特别值得注意的是,欧洲法规中有一项条款明确指出:所有这些规定均不适用于人工智能的军事用途。这意味着,政府乐于监管企业和个人,却不愿监管其自身。

主持人:这一点让我觉得相当疯狂。我一直在思考,如果欧洲制定了法规,而世界其他地区没有跟进,那我们岂不是在给自己制造竞争劣势吗?

杰弗里辛顿:是的,确实如此。

主持人:我们已经目睹了这种情况。我认为人们尚未意识到,当OpenAI在美国发布一款新模型或软件时,由于欧洲的法规限制,它往往无法同步在欧洲上线。所以,萨姆奥特曼(Sam Altman)就曾发推文表示,他们新的人工智能代理已向所有人开放,但由于法规问题,暂时还无法进入欧洲市场。这会带来什么后果呢?这会使我们在生产力上处于劣势。一种生产力上的巨大劣势。

杰弗里辛顿:在历史的这个关键节点,当我们即将创造出超越自身智能的造物之时,我们真正需要的,是一个由睿智、深思熟虑的人们所运作的、有效的全球治理体系。然而,目前我们并没有这样的体系。

如今的局面是各自为政。我们身处资本主义体系之中,它在很多方面确实为我们带来了益处。它为我们生产了海量的商品与服务。但问题在于,那些大型科技公司在法律上被要求以追求利润最大化为首要目标。而这,恰恰不是你在开发这类强大技术时所希望看到的驱动力。

主持人:那我们来说说风险吧。你提到了人为风险。

杰弗里辛顿:我已经区分了这两种风险。我们来谈谈心怀不轨者利用人工智能带来的种种风险。有网络攻击。从2023年到2024年,网络攻击大约增加了12倍,也就是1200%。这可能是因为大型语言模型使得发起网络钓鱼攻击变得容易得多。

主持人:对于不了解网络钓鱼攻击的人来说

杰弗里辛顿:他们会给你发一些信息,比如嗨,我是你朋友约翰,我被困在萨尔瓦多。你能给我汇点钱吗?这是一种攻击。但网络钓鱼攻击的主要目的是想获取你的登录凭据。

主持人:现在有了人工智能,他们可以克隆我的声音、我的形象,无所不能。我现在就深受其扰,因为X平台和Meta平台上充斥着大量人工智能诈骗。尤其是在Meta平台,也就是Instagram和Facebook上,有一个付费广告,盗用了我在播客里的声音。他们模仿我的言行举止,制作了一个新视频,引诱人们参与加密货币庞氏骗局。我们花了好几个星期给Meta发邮件要求删除。他们删掉一个,又冒出来一个;再删掉,又冒出来一个新的。简直就像打地鼠游戏。最令人心碎的是,你会收到那些上当受骗者的消息,他们损失了500英镑。

杰弗里辛顿:他们会因为是你推荐的而对你感到愤怒。我为他们感到难过,这确实非常烦人。我也遇到过类似但规模较小的情况:有些人发表论文时会把我列为合著者,似乎是为了借此提高他们论文的引用量

主持人:啊。所以网络攻击是一个非常真实的威胁,对此我深有体会。

杰弗里辛顿:是的。而且,人工智能非常有耐心,可以审查数亿行代码,寻找已知的攻击向量这很容易做到。但它们会变得更具创造力。一些消息灵通人士相信,或许到2030年,人工智能将创造出人类从未想象过的新型网络攻击。这非常令人担忧。

杰弗里辛顿:因为它们能够独立思考并发现新的攻击方法,能从远超人类接触范围的海量数据中得出新的结论。

主持人:您有没有采取任何措施来保护自己免受网络攻击?

杰弗里辛顿:有。鉴于我对网络攻击的恐惧,这是我唯一彻底改变做法的方面。加拿大的银行非常安全。2008年金融危机时,没有一家加拿大银行濒临倒闭。它们之所以安全,是因为监管良好且相当完善。即便如此,我仍然认为网络攻击可能导致银行倒闭。

现在,如果我把所有存款都换成银行持有的股份。那么,即使银行遭到攻击,它持有的股份仍然是你的。所以我认为你会安然无恙除非攻击者卖掉了这些股份,因为银行有权出售股份。如果攻击者卖掉了你的股份,我想你就完了。我不知道,也许银行必须尽力赔偿你,但到那时银行可能已经破产了,对吧?

所以我担心加拿大的银行会因网络攻击而崩溃,以及攻击者会卖掉银行持有的股份。为了降低这种风险,我把我的钱和我孩子的钱分散存放在三家不同的银行。我相信,如果一家加拿大银行因网络攻击而倒闭,其他加拿大银行会立刻变得非常警惕。

主持人:您有没有一部不联网的手机?您有没有考虑过,比如,存储数据这类事情?您认为考虑离线存储明智吗?

使用人工智能制造病毒

杰弗里辛顿:我有一个小硬盘,用来备份我的笔记本电脑。所以,我笔记本电脑上的所有东西实际上都有备份。至少,我知道如果整个互联网瘫痪了,我的信息还在笔记本电脑的备份里。接下来一个问题是利用人工智能制造危险病毒。

主持人:我很关心这个问题。

杰弗里辛顿:问题在于,只需要一个心怀怨恨的疯子他懂一点分子生物学,精通人工智能,并且一心想毁灭世界就够了。现在,利用人工智能制造新病毒的成本相对较低,而且你不需要是顶尖的分子生物学家也能做到。这非常可怕。例如,一个小规模的邪教组织,他们可能筹集到几百万美元,用这笔钱就能设计出多种病毒。

主持人:我在想,我们的一些外国对手会不会进行政府资助的项目。我不知道。

人工智能与选举操纵

杰弗里辛顿:我认为他们可以。但他们会担心遭到报复,担心其他政府对他们采取同样的手段。希望这能起到一定的制约作用。他们可能还会担心病毒蔓延到自己的国家。接下来是操纵选举。如果你想用人工智能操纵选举,一个非常有效的方法就是进行精准的政治广告投放,这需要大量关于选民个人的信息。

因此,任何想利用人工智能操纵选举的人,都会试图尽可能多地获取所有选民的信息。考虑到这一点,埃隆马斯克目前在美国的一些做法就有点令人担忧了。他正在介入并坚持要求获得那些本应被小心隔离的数据的访问权,声称是为了提高效率但这恰恰是操纵下届选举所需要做的事情。

主持人:您是什么意思?因为你可以得到所有这些

杰弗里辛顿:你可以获得关于人们的所有这些数据:他们赚多少钱,他们的一切。一旦掌握了这些,操纵他们就易如反掌。因为你可以制造一个人工智能,向他们发送极具说服力的信息,比如劝他们不要投票。我这么想并无特殊理由,只是基于常识,但如果说从美国政府获取这些数据的部分动机是为了操纵选举,我一点也不会惊讶。另一部分原因可能是,这对大型模型来说是绝佳的训练数据。

主持人:但他必须从政府那里获取这些数据,并将其输入到他的模型里。

杰弗里辛顿: 他们所做的就是关闭了许多安全控制,并取消了一些旨在防范风险的组织架构。

人工智能如何制造回音室

主持人:所以这就是操纵选举。

杰弗里辛顿:好的。然后就是像YouTube和Facebook这类平台制造的回音室效应,它们向人们展示那些会激起其义愤的内容。人们喜欢这种义愤填膺的感觉。

主持人:义愤是愤怒的意思吗?义愤是什么意思?

杰弗里辛顿:有点生气,但又觉得自己站在正义的一方。举个例子,如果你给我看一条内容写着特朗普做了这件疯狂的事,附带着一段特朗普正在做这件疯狂之事的视频,我会立刻点开。

主持人:好的,所以这把我们置于回音室中,分裂我们。

杰弗里辛顿:正是YouTube、Facebook等平台决定给你看什么内容的算法策略导致了这种情况。如果它们的策略是展示平衡的内容,就无法获得那么多点击量,也卖不出去那么多广告。所以,基本上是利润动机驱使它们:给用户看任何能让他们点击的内容。而能让他们点击的内容,则变得越来越极端。

杰弗里辛顿:这不断强化我固有的偏见。所以,你的偏见也一直在被强化。

主持人:越来越远,越来越远,这意味着你

杰弗里辛顿:如今,在美国,有两个几乎不互相交流的群体。

主持人:人们并没有意识到,每次打开一个应用程序时,这一切都在悄然发生。但如果你刷TikTok、看YouTube或使用这些大型社交网络,其算法,正如你所说,就是为了给你看更多你上次感兴趣的内容。如果这种情况持续十年,它会把你进一步推向你所持有的任何意识形态或信仰的极端,让你远离微妙的真相、常识和平衡这是非常值得警惕的。人们对此浑然不觉。他们只是打开手机,体验着推送给他们的内容,并以为这就是新闻,或者以为其他人也在经历同样的现实。

杰弗里辛顿:是的。基本上,过去如果有一份报纸,大家读的都是同一份,你就能看到各种你并非刻意寻找的内容,你会觉得报纸上刊登的便是重要或有意义的事。但现在,如果你有自己的个性化新闻推送,比如我iPhone上的新闻源,四分之三的内容都与AI相关。我就很难判断,究竟是全世界都在谈论AI,还是仅仅我的新闻推送如此。

主持人:好吧,这把我推入了我的回音室,使我们更加分裂。我确实注意到算法变得越来越怎么说呢?度身定制。人们可能会觉得哦,太好了,但这恰恰意味着它们更加个性化,也意味着我的现实和你的现实之间的鸿沟越来越大。

杰弗里辛顿:是的,这太疯狂了。我们不再拥有一个共同的现实。我和那些看BBC新闻、读《卫报》或《纽约时报》的人共享一个现实。但我和那些看福克斯新闻的人,几乎没有任何共同的现实可言。

主持人:这真是,我不知道该怎么说。

杰弗里辛顿:这令人担忧。这一切的根源在于:这些公司只想盈利,为了赚取更多利润,它们会不惜一切代价。因为它们必须这么做,法律上甚至有义务这么做(指对股东的信托责任)。

主持人:所以我们几乎不能责怪这些公司,是吗?

监管新技术

杰弗里辛顿:资本主义确实带来了诸多益处,创造了许多好东西。但它需要非常好的监管。我们真正需要的是制定规则,确保公司在追求利润最大化的同时,其行为必须对公众有利,而非有害。

因此,一旦公司为了赚取更多利润而开始从事对社会极为不利的行为比如向你推送愈发极端的内容监管就变得至关重要。所以说,资本主义离不开监管。

现在,公司总会抱怨监管碍事、降低效率,这没错。但监管的全部意义,恰恰在于阻止它们为了逐利而损害社会。我们需要强有力的监管。

主持人:那谁来决定什么是损害社会呢?

杰弗里辛顿:那是政客的工作。不幸的是,如果政客被公司控制,那就不太妙了。

主持人:而且政客们可能也不懂技术。你或许看过那些参议院听证会,当他们把马克扎克伯格和那些科技巨头的CEO们请来时,场面相当尴尬,因为议员们提出的问题本身就显得非常外行。

杰弗里辛顿:我看过一段美国教育部长谈论如何将AI引入课堂的视频,结果她把AI说成了A1。她确实在视频里说,我们要让所有孩子都和A1互动。

美国教育部长:有一个学校系统将开始确保一年级甚至学前班的学生从这么小的年纪就开始每年接受 A1 的教学。这真是件美妙的事。

杰弗里辛顿:而这些人,就是我们的负责人。

主持人:归根结底,真正负责的还是科技公司自己。

监管是否阻碍我们与中国竞争?

杰弗里辛顿:因为他们更聪明。嗯,至少几周前我在美国的时候,那里的科技公司正在投放广告,宣称不监管AI至关重要,否则会损害我们与中国的竞争力。

主持人:而这是一个看似合理的论点。

杰弗里辛顿:是的,监管确实会有影响。但你必须做出抉择:你是想通过严重损害自身社会的方式来与中国竞争吗?恐怕没人愿意这么做。

主持人:我猜他们会说不仅仅是中国,还有丹麦、澳大利亚、加拿大

杰弗里辛顿:英国。他们不太担心这些。

主持人:至于德国。但如果他们用监管自断后腿,如果他们放慢了自己的速度,那么创始人、企业家、投资者

杰弗里辛顿:我认为,将其称为自断后腿是站在一个特定立场即认为监管极为有害的立场。我们真正需要做的是约束大型公司,以便它们在盈利的同时,必须做对社会有益的事情。谷歌搜索就是个好例子,它让人们更容易获取信息,非常棒,所以它(早期)不需要太多监管。但看看YouTube,它开始给你推送广告,展示越来越极端的内容,这时它就需要监管了。

主持人:但正如我们已经指出的,我们没有能够监管它的人。

杰弗里辛顿:我认为,对于推送愈发极端内容这个具体问题,人们是清楚的。这是一个众所周知的问题,政客们也明白。他们只需要着手去监管。

致命自主武器的威胁

主持人:我们谈了算法将我们推入回音室。那么,下一个风险是什么?

杰弗里辛顿:致命自主武器。

主持人:致命自主武器。

杰弗里辛顿:这意味着那些能够杀人,并且自行决定是否杀人的武器系统。

主持人:我猜,这是军工联合体最大的梦想。

杰弗里辛顿:制造这类武器是现代战争中的一个重要趋势。这种能力最可怕的一面在于,强大富裕的国家将总有能力入侵弱小贫穷的国家。凭借更强大的军事力量,它们可以为所欲为。然而,当真正派遣士兵入侵时,后果显而易见,且令人心碎。士兵的遗体被装在裹尸袋里运回,他们的亲属悲痛欲绝。这可能会在国内引发大规模抗议,就像越南战争期间,随着伤亡人数攀升,公众的反战声浪也日益高涨。

相比之下,如果伤亡的主要是机器人而非人类士兵,国内的公众抗议或许会少得多。军工复合体实际上更乐见这种情况,因为机器人可能造价不菲。如果有可以被摧毁且更换成本高昂的机器,那么对于考虑入侵的大国而言,决策就会简化,因为他们不必因人员伤亡而面临同等强度的国内反对。因此,针对小国的军事行动便能更顺利地进行,遇到的阻力也更小。

主持人:那风险在于,这些机器人可能会出故障,或者它们会

杰弗里辛顿:不,不。即使机器人完全按照制造者的指令行事,风险依然存在这会让大国更频繁地入侵小国。因为他们有这个能力,就会更频繁地这样做。这可不是什么好事。这降低了入侵的成本。

主持人:这些机器在战争中也会更智能。

杰弗里辛顿:所以它们会表现得更好。即便机器不那么智能,致命的自主武器现在也能被制造出来。而且我认为所有大型国防公司都在忙着研发。即使它们不如人类聪明,它们依然是极其危险和可怕的东西。

主持人:因为我在想,你可以给它看一张照片,让它去抓捕特定的人。然后干掉任何与目标通过短信联系的人。还有那种微型无人机(武器)。

杰弗里辛顿:两天前,我去萨塞克斯郡拜访一位朋友,他有一架售价不到200英镑的无人机。那无人机飞起来,仔细打量了我一番,然后就能穿过树林跟着我。它一直跟着。被这架无人机跟着感觉很恐怖。它在我身后大约两米远的地方盯着我。我移动到哪里,它就跟到哪里。仅仅200英镑的无人机就能跟踪我。这已经相当吓人了。

这些AI威胁能否结合?

主持人:我猜想,一场制造最复杂自主武器的竞赛正在进行。我常听说一种风险,就是这些技术会结合起来,比如网络攻击触发武器释放

杰弗里辛顿:通过结合这些风险,你会得到多种风险的叠加。例如,可能会出现一个决定清除人类的超级智能AI。最直接的方法就是制造一种恶性病毒。如果你制造出一种传染性极强、致死率很高,但潜伏期很长的病毒,那么在人们意识到发生什么之前,所有人可能都已被感染。我认为,如果一个超级智能想要消灭我们,它很可能会选择这种对自身无害的生物武器。

主持人:难道你不认为它能很快让我们自相残杀吗?比如,它可以在美国的核系统中发送警报,谎称俄罗斯发射了核弹,反之亦然。从而引发报复。

杰弗里辛顿:我的基本观点是,超级智能有太多方法可以消灭我们,具体方式根本不值得猜测。关键在于,我们必须阻止它产生这种念头,这才是我们应该研究的方向。我们不可能阻止它因为它比我们聪明。一旦它想消灭我们,我们根本无力回天。我们不习惯思考比我们更聪明的存在。想知道当你不是食物链顶端智慧时生活是何滋味,去问问鸡就知道了。

主持人:今天早上出门时,我就在想我的法国斗牛犬帕布罗。它根本不知道我要去哪里,也不知道我做什么。我甚至无法与它沟通。

限制AI接管

杰弗里辛顿:智能上的差距也会如此悬殊。

主持人:所以你的意思是,如果我是帕布罗,我的法国斗牛犬,我就得想办法让我的主人别消灭我。

杰弗里辛顿:我们有一个例子:母亲和婴儿。进化在这方面下了很大功夫。母亲比婴儿聪明,但婴儿才是掌控者。婴儿之所以能掌控局面,是因为母亲无法忍受他们的哭声这其中有各种激素等因素,但根本原因是母亲无法忍受婴儿的哭闹。(当然,并非所有母亲都如此。如果母亲不受婴儿影响,那可能会发生糟糕的事情。)我们必须设法让AI不想接管。我常用的一个类比是,先不谈智能,只谈体力。假设你养了一只可爱的小老虎,它比猫大点,非常萌,非常温顺,看起来很有趣。但你最好确保它长大后永远不会想杀你,因为一旦它动了杀心,你几秒钟内就会丧命。

主持人:你是说我们现在的AI就像那只小老虎?

杰弗里辛顿:是的。

主持人:所以我们需要在它还是幼崽的时候就训练它?

杰弗里辛顿:老虎有很多天性,所以你知道它长大后并非能安全养在身边的动物。

主持人:但是狮子呢?那些把狮子当宠物养的人,有时狮子对主人很亲热,对其他人却不然。

杰弗里辛顿:我们根本不知道能否让这些AI不想接管、不想伤害我们。

主持人:你认为我们能做到吗?这可能实现吗?

在AI风险中反思你的毕生工作

杰弗里辛顿:我认为我们能否做到尚不明确。所以我感觉这事或许没什么希望。但同时我也认为我们或许能做到。如果人类因为懒得尝试而走向灭绝,那未免太不可思议了。

主持人:如果这确实存在可能,你对自己毕生的工作有何感想?

杰弗里辛顿:这多少冲淡了AI带来益处的喜悦,不是吗?AI在医疗和教育等许多领域都会非常出色,它能让呼叫中心的效率更高。然而,人们难免会担心那些从事这些工作的人未来将何去何从。这让我感到难过。大约40年前我开始研究AI时,并没有特别的负罪感,因为那时我们根本不知道事情会发展得如此之快。我们以为有大把时间去考虑这些问题。当你让AI做的事情不多,只想让它再多做一点点时,你不会担心这个傻乎乎的东西会取代人类,你只是希望它能多做一些人类能做的事情。我并非明知这可能会毁灭我们却执意为之。尽管如此,AI并非只有好处,这一点确实令人遗憾。所以我现在觉得,我有责任站出来谈论这些风险。

主持人:如果你能预见未来,快进三五十年,发现AI导致了人类灭绝。如果结局真是如此。

杰弗里辛顿:如果我预见到AI将导致人类灭绝,我会以此警示世人,告诉各国政府,我们必须竭尽全力研究如何控制这些技术。我认为需要民众去呼吁政府,政府必须强制企业投入资源进行安全研究。而企业在这方面做得不够,因为安全研究不赚钱。

学生因安全担忧离开OpenAI

主持人:我们之前谈到过您的学生伊利亚(Ilya Sutskever)?他离开了OpenAI。关于他因安全担忧而离职的说法很多。他已经成立了一家AI安全公司。您认为他为何离开?

杰弗里辛顿:我认为他离开是因为他对安全问题感到担忧。我仍不时与他共进午餐。他父母住在多伦多,他来多伦多时,我们就会一起吃饭。他没有跟我谈论OpenAI发生的事情,所以我没有内部消息。但我非常了解伊利亚,他真心担忧安全问题。所以我认为这才是他离开的原因。

主持人:因为他是OpenAI最重要的人物之一。他简直是

杰弗里辛顿:他可以说是开发ChatGPT背后最关键的人物。早期版本如GPT-2的开发,他居功至伟。

主持人:您认识他本人,所以了解他的为人。

杰弗里辛顿:是的,他有良好的道德准则。他不像马斯克那样缺乏道德底线。

主持人:萨姆奥特曼(Sam Altman)有良好的道德准则吗?

杰弗里辛顿:拭目以待吧。我不认识萨姆,所以不想评论。

主持人:但从您所见来看,您对他们的所作所为感到担忧吗?因为如果您了解伊利亚,知道他是个好人,而他却离开了,

杰弗里辛顿:那确实能给人一些启示。这足以让人相信那里有问题。如果你看看萨姆几年前的声明,他在一次采访中似乎乐呵呵地说,这些东西可能会杀死我们所有人。虽然不是原话,但大意如此。现在他又说大家不必过于担心。我怀疑他这么说并非出于对真相的追求,而是为了金钱。

主持人:是为了金钱还是权力?

杰弗里辛顿:是的,或许不该只说是金钱。是两者的某种结合。

主持人:我猜金钱是权力的代名词。我有一位亿万富翁朋友,身处那个圈子。有一天我去他家共进午餐,他认识许多正在打造全球最大AI公司的业界人士。在伦敦他家的餐桌旁,他给了我一个警示,透露了这些人在私下场合的真实想法那并非他们在媒体采访中谈论安全之类的场面话,而是他们内心真正预见的未来。

杰弗里辛顿:那他们认为未来会怎样?

主持人:他们预见的未来?那可不是他们公开的说法。有位领导着全球顶尖AI公司之一的人物,恕我不能点名,有人告诉我他非常了解此人。这位人士私下认为,我们将走向一个反乌托邦的世界,届时人们拥有大把空闲时间,却无工可作。而此人,这位正在打造全球最大AI公司之一的巨头,似乎并不真正关心这将对世界造成的伤害。

然后,我上网看了这个人的采访,试图弄清楚他究竟是(传闻中)那三巨头中的哪一位。我看着他的采访,回想起那位亿万富翁朋友与我的谈话,他认识此人。我沮丧地意识到,这个人公然撒谎。他没有对世界说出真相,这让我深感不安。

这正是我在播客中进行如此多关于AI对话的部分原因。我担心他们中的某些人或许对权力有某种病态的迷恋。我认为他们陶醉于改变世界的想法,陶醉于自己将成为那个彻底改变世界的人。

杰弗里辛顿:我认为马斯克显然就是这样的人,对吧?

主持人:他是个非常复杂的人物,我不太确定该如何评价马斯克。

杰弗里辛顿:他做过一些非常好的事,比如推广电动汽车,这非常好。他对自动驾驶的一些说法有些夸大,但推广电动车本身是件非常有益的事。在俄乌战争期间向乌克兰提供通信服务,那也是一件非常好的事。诸如此类的好事有很多。但他同样也做过一些非常糟糕的事。

您对人工智能的未来抱有希望吗?

主持人:那么回到AI可能带来的毁灭以及这些大公司动机的问题上,您是否抱有希望,认为我们能做些什么来减缓AI发展的步伐?

杰弗里辛顿:这里有两个问题。第一,能否减缓其发展?第二,能否最终使其安全,不至于毁灭我们所有人?我不认为我们能减缓它。原因在于国家间的竞争,以及一国内部公司间的竞争。这些因素都在加速其发展。即便美国放慢脚步,中国也不会。

主持人:伊利亚认为确保AI安全是可能的吗?

杰弗里辛顿:我认为他相信是可能的。但他不会告诉我他的秘密武器是什么。我不确定有多少人知道他的秘密武器。我想很多投资者也不知道,但他们依然投给他数十亿美元,因为他们对伊利亚抱有极大信心,这并不愚蠢。要知道,他在AlexNet项目中扮演了关键角色,AlexNet让物体识别取得了重大突破。他也是GPT-2等项目的核心推动者,这些项目最终促成了ChatGPT的诞生。所以,对伊利亚抱有巨大信心是非常合理的。

主持人:那个创造了GPT-2、引领了这场革命的核心人物,竟然因为安全原因离开了公司,这确实令人不安。他肯定知道一些我所不知道的,关于未来可能发生的事情。

杰弗里辛顿:嗯,那家公司曾承诺将其计算资源的很大部分用于安全研究,但后来削减了这一比例。具体细节我不清楚,但我相当肯定他们曾做出这样的承诺,之后又减少了投入。我想这是导致他离开的原因之一。

人工智能引发失业的威胁

主持人:是的,这已经有公开报道了。我们已经讨论了风险框架中的自主武器部分。

杰弗里辛顿:好的,下一个问题是失业。

过去的新技术并未导致大规模失业,反而创造了新的就业机会。典型的例子是ATM机。ATM出现后,许多银行柜员并未失业,而是转向了更有趣的工作。但我认为这次不同,这更像是工业革命时期机器的引入你无法再靠挖沟渠谋生,因为机器在这方面远胜于你。我认为,对于常规的脑力劳动,AI将全面取代人类。目前来看,这很可能表现为少数人借助AI助手完成以往需要十个人才能完成的工作。

主持人:人们常说AI会创造新的就业机会,所以我们不必担心。

杰弗里辛顿:是的,对于其他技术而言确实如此,但AI是一种截然不同的技术。如果它能完成所有常规脑力劳动,那么它还能创造出什么样的新工作呢?你必须具备极高技能,才能从事AI无法胜任的工作。所以我认为这种说法是错误的。你可以尝试从计算机、ATM机等其他技术的历史中寻找相似之处,但我坚持认为,这次的情况完全不同。

主持人:人们常说一句话:AI本身不会抢走你的饭碗,但会用AI的人会。

杰弗里辛顿:的确如此。但对许多工作而言,这意味着所需的员工会大幅减少。我的侄女负责回复公共卫生服务的投诉信。以前,她处理一封投诉信需要25分钟:阅读投诉、构思回复,然后撰写。现在,她只需将投诉扫描进聊天机器人,机器人就能代笔。她只需要检查,偶尔让机器人修改某些地方。整个过程现在只需五分钟。这意味着她的效率提升了五倍,相应地,所需人力也减少到原来的五分之一。所以她一个人就能完成以往五个人才能做完的工作。

这意味着在某些岗位上,所需的人手会减少。而在其他领域,比如医疗保健,情况则更具弹性。如果医生的效率能提高五倍,我们就能以相同的价格享受到五倍的医疗服务。这将非常棒,因为人们对医疗服务的需求几乎没有上限。如果医疗服务免费,人们总会想要更多。

在某些工作中,AI助手能让人类的效率大幅提升,但这不一定会导致裁员,因为可以完成更多的工作量。但我认为,大多数工作并非如此。

如果体力和脑力都被取代,人类还剩下什么?

主持人:我的理解对吗?工业革命取代了体力劳动?而这场人工智能革命,则是在取代脑力劳动。

杰弗里辛顿:是的,取代的是大脑。因此,日常的脑力劳动,就像过去拥有强壮的肌肉一样,其价值正在降低。

主持人:体力已被取代,如今脑力也正在被取代。那还剩下什么?

杰弗里辛顿:或许暂时还剩下一些创造力。但超级智能的核心理念是,最终什么都不会剩下。它们将在所有方面都超越我们。

主持人:那么,在这样的世界里,我们最终将何去何从呢?

杰弗里辛顿:如果它们为我们工作,我们最终将不费吹灰之力就能获得大量的商品和服务。

主持人:这听起来很诱人,也很美好,但我心存疑虑。历史上,让人们过度安逸最终导致不良后果的故事屡见不鲜。

杰弗里辛顿:是的,我们需要弄清楚能否让这一切顺利发展。一个乐观的设想是:想象一位能力平庸的CEO或许是前任CEO的儿子他有一位非常聪明的执行助理。CEO说:我觉得我们应该这样做。然后执行助理便将一切安排妥当。CEO自我感觉良好,他并未意识到自己其实没有实权。但从某种意义上说,他又确实掌握着权力,因为是他提议公司该做什么,而助理只是负责执行。一切运转良好。这便是乐观的设想。

那悲观的设想呢?助理可能会想:我们为什么还需要他?

主持人:您认为我们拥有超级智能的那一天,离我们并不遥远?

杰弗里辛顿:是的,我觉得可能并不遥远。这很难预测,但我认为可能在20年内,甚至更短时间就能实现。

主持人:那么,我们目前拥有的人工智能与超级智能有何区别?因为当我使用像ChatGPT或Gemini这样的工具时,感觉它们已经相当智能了。

杰弗里辛顿:AI在许多方面已经超越了我们。尤其在某些领域,如国际象棋,AI已经远超人类,人类几乎无法再击败它们。或许偶尔能赢一局,但基本上人类已无胜算。围棋也是如此。就知识量而言,像GPT-4这样的模型所掌握的知识是你的数千倍。或许在少数几个领域你比它更懂,但在几乎所有其他领域,它都比你知道得更多。

主持人:我在哪些方面比它强?

杰弗里辛顿:或许在采访CEO这方面,你更胜一筹。你经验丰富,是一位出色的采访者,对此领域了如指掌。如果让GPT-4去采访一位CEO,它可能表现不如你。

主持人:嗯,我在思考是否同意这一点。对于GPT-4,我目前是同意的。但我想,或许可以训练一个AI。也许不久之后,就能根据我的提问方式和行为模式训练出一个(能胜任的AI)。

杰弗里辛顿:如果采用一个通用的基础模型,用你以及所有能找到的类似采访者的经验(尤其是你的)来训练它,它在你的工作上可能会做得相当出色,但短期内或许仍不及你。

主持人:好的。所以(人类占优的)领域所剩无几了。那么,超级智能就是指AI在所有事情上都比我们做得更好的时候。

杰弗里辛顿:当它远比你聪明,并且在几乎所有事情上都强于你的时候,是的。

主持人:您说这可能还需要十年左右?

杰弗里辛顿:或许吧。甚至可能更快,有些人认为会更快。但也可能需要更长时间,或许50年,这仍是一种可能。或许基于人类数据训练这一事实,在某种程度上限制了它,使其不会比人类聪明太多。我猜测,10到20年内,我们将迎来超级智能。

主持人:关于失业问题,我一直特别关注,因为我开始试用AI智能体了。今天早上,我们的播客刚发布了一期节目,内容是我与一家大型AI智能体公司的CEO及其他几位嘉宾就AI智能体进行的辩论。那又是一个让我对未来豁然开朗的时刻。采访时,我让那个智能体帮我们所有人点饮料,五分钟后,采访仍在进行,送饮料的人就到了。我什么都没做,只是告诉它把饮料送到工作室。

杰弗里辛顿:你甚至不知道通常在哪里买饮料。它是从网上找到的。

主持人:是的,它通过Uber Eats完成的。它有我的数据。我们当时在屏幕上实时展示了整个过程,所以大家都能看到这个智能体如何在线操作:选择饮料、给司机小费、输入我的地址和信用卡信息。然后饮料就送到了。这真是一个标志性的时刻。另一个让我震撼的时刻是,我使用一个名为Replit的工具,只需告诉智能体我的需求,它就能帮我构建软件。

杰弗里辛顿:确实不可思议,不是吗?

主持人:既不可思议,同时又令人恐惧。

杰弗里辛顿:是的,如果AI能那样构建软件,那么别忘了,AI训练时本身就使用了大量代码。如果它能修改自身代码,那就相当可怕了,因为它能自我进化。它能以我们无法做到的方式改变自己。我们无法改变自身的天赋,对吧?但对它而言,没有什么是不可以改变的。

主持人:回到失业问题,您有孩子。他们有孩子了吗?还没有孙辈是吗?您会和人们讨论在超级智能时代,他们的职业前景吗?我们应该作何考虑?

杰弗里辛顿:在超级智能真正到来之前,我认为AI在物理操作层面要达到人类水平还需要很长时间。因此,当一名水管工或许是个不错的选择。

主持人:直到人形机器人出现为止。关于普遍失业的世界,这不仅是您的预测,OpenAI的萨姆阿尔特曼(Sam Altman)也曾这样预测过。许多CEO,例如埃隆马斯克(Elon Musk)也是如此。我看过一段采访稍后会展示在屏幕上他被问及此事。你很少见到马斯克沉默长达12秒或更久。然后他说,他实际上是以一种悬置怀疑(suspension of disbelief)的状态在生活,也就是说,他选择不去深思这个问题。

插播马斯克访谈

主持人: 当你思考在如此巨变的时代如何给你的孩子提职业建议时,你告诉他们什么会是有价值的?

马斯克:这是一个很难回答的问题。我会告诉他们,追随自己的内心,做自己觉得有趣或有意义的事。想太多可能会让人沮丧和消沉。我倾注了大量心血创建这些公司。有时我会想:等等,我这样做值得吗?如果我牺牲了与朋友家人共处的宝贵时光,结果AI最终能完成所有这些工作,那这一切有意义吗?我不知道。在某种程度上,我必须刻意悬置怀疑,才能保持前进的动力。所以我想我会说,就去做那些你觉得有趣、有意义,并且能为社会做出贡献的事吧。

适应AI的能力

杰弗里辛顿:是的,许多这类威胁理智上你能看到,但情感上难以接受。我还没有在情感上真正接受这一点。你问我接受是什么意思?我指的是,我还没有完全接受超级智能的发展可能对我孩子的未来造成的影响。我个人还好,我已经77岁了,时日无多。但对于我的孩子、年轻朋友、侄子侄女以及他们的后代,我真的不愿去想可能会发生什么。因为那可能非常可怕。

主持人:怎么个可怕法?

杰弗里辛顿:如果AI决定接管一切,它可能在一段时间内还需要人类来运营发电站,直到它设计出更优越的自动化设备来取代人类。它有很多方法可以清除人类,而这些方法无疑都将非常残酷。

主持人:这是否是您现在致力于这些议题的部分原因?

杰弗里辛顿:是的,我认为我们现在应该投入巨大努力,研究如何安全地开发AI。

主持人:您是否也担心AI在中期对您侄子侄女和孩子的就业造成影响?您认为哪些特定行业的风险最高?人们常提及创意产业和知识型工作,例如律师、会计师等。

杰弗里辛顿:是的,所以我之前提到了水管工我认为这个职业的风险较低。而像法律助理、律师助理这类职位,很快就会被取代。

AI如何可能加剧贫富差距

主持人:这是否会引发贫富差距问题,从而进一步?

杰弗里辛顿:是的。在一个财富公平分配的社会里,生产力大幅提升本应让每个人都过得更好。但如果AI取代了大量人力,那么被取代的人处境会更糟,而提供和使用AI的公司则会获益良多。这将加剧贫富差距。我们知道,贫富差距的大小能反映一个社会的好坏程度。如果差距过大,社会就会变得非常糟糕:富人住在有围墙的社区里,而另一些人则被大规模监禁。扩大贫富差距绝非益事。

主持人:国际货币基金组织表达了深切担忧,认为生成式AI可能导致大规模劳动力中断和不平等加剧,并呼吁制定政策防止这种情况发生。我在《商业内幕》上读到的。

杰弗里辛顿:他们对这些政策具体应该是什么样的,提出建议了吗?没有。这正是问题所在。如果AI能让一切更高效,取代大部分岗位,或让一个人在AI辅助下完成许多人的工作量,那么我们该如何应对,目前尚不明确。

主持人:全民基本收入(UBI)或许是一个方案。杰弗里辛顿:给每个人发钱。我想这是一个不错的起点。至少人们不会挨饿。但对许多人而言,工作的意义远不止于此,它与个人尊严紧密相连。我是说,你的身份认同往往与你所从事的工作息息相关。如果我们说,你待在家里就能拿到同样的钱,这会影响他们的尊严感。

人工智能为何优于人类?

主持人:您刚才提到AI能超越或优于人类智能。许多人倾向于认为,人工智能不过是电脑里的程序,不喜欢就可以随时关掉它。

杰弗里辛顿:让我来解释为什么我认为它更优越。首先,它是数字化的。因为是数字化的,你可以在一块硬件上运行一个神经网络模型,然后在另一块硬件上运行完全相同的模型。这意味着你可以拥有同一智能体的无数个克隆。

然后,你可以让一个克隆体去学习互联网的一部分内容,同时让另一个克隆体学习另一部分。当它们学习这些不同内容时,它们可以实时同步,保持彼此的权重(即连接强度)完全一致。

比如,一个克隆体在互联网上学习到某条信息后,认为需要稍微增强某个连接的强度。它可以将这个调整信息传递给其他所有克隆体,其他克隆体就能基于这一个体的经验,同步调整相应的连接强度。

主持人:你说连接的强度,是在谈论学习。

杰弗里辛顿:那就是学习。学习就意味着,比如说,某个神经元对另一个神经元是否应该被激活的投票权重从2.4调整到2.5。这就是一点学习的过程。因此,同一个神经网络的这些不同副本,各自获取不同的经验。它们处理不同的数据,但通过平均各自的权重来共享所学。它们可以对权重进行平均,比如你可以平均万亿级别的权重。

相比之下,你我之间传递信息,受到一句话所能承载的信息量的限制。一句话可能只包含大约100比特的信息,这非常少。我们每秒能传递大约10比特信息就很不错了。而这些数字智能体每秒可以传输数万亿比特。因此,在信息共享效率上,它们比我们强数十亿倍。这正是因为它们是数字化的,你可以让不同的硬件以完全相同的方式运用这些连接强度。

我们是模拟的生物,做不到这一点。你的大脑和我的大脑是不同的。即使我能知道你所有神经元间的连接强度,这些知识对我来说也毫无用处,因为我的神经元运作方式和连接结构都与你的略有不同。因此,当你去世时,你所有的知识都随你而去。

人工智能拥有比人类更多知识的潜力

而当这些数字智能体死亡时比如运行它们的硬件被摧毁了只要你把它们的连接强度(权重)储存在某个地方,你就可以用新的硬件来执行相同的指令集。新硬件知道如何运用那些连接强度,于是你就重建了那个智能体。所以它们是永生的。我们实际上已经解决了永生的问题但这只适用于数字存在。

主持人:所以,它不仅会掌握人类已知的一切,还会通过学习新事物而懂得更多。

杰弗里辛顿:它会学习新的东西。它还会看到各种各样人类可能从未见过的类比。例如,在GPT-4还不能浏览网页的时候,我问它,为什么堆肥堆和原子弹相似?

主持人:来吧。我不知道。太对了。很棒。大多数人都会这么说。

杰弗里辛顿:它说,时间尺度和能量尺度都大相径庭。

但它接着说,堆肥堆越热,产热速度越快。原子弹也是,产生的中子越多,中子产生的速度就越快。所以它们都是链式反应,只是时间尺度和能量尺度截然不同。

我相信GPT-4在训练时接触过这个观点。它理解了堆肥与原子弹的类比。我之所以这么认为,是因为如果你只有一万亿个连接(而你实际拥有一百万亿个),却需要掌握比个体人类多几千倍的知识,就必须将信息压缩进这些连接点。

要压缩信息,就必须洞察不同事物间的类比。换言之,它需要识别所有链式反应的共性,理解并编码链式反应的基本原理,然后再编码它们之间的差异。这远比单独编码每个事物更高效。

所以它洞察了大量类比,其中许多可能是人类从未发现的。这正是为什么我认为,断言AI没有创造力是错误的。它们将比我们更具创造力,因为它们能看到我们未曾想象的各种类比。许多创造力正源于发现新奇的类比。

人工智能能否复制人类的独特性?

主持人:人们对于生而为人的特殊性,多少有些浪漫化的执念。你会听到很多人说,AI与我们截然不同。它是电脑,而我们,我们拥有意识,我们是创造者,我们拥有电脑永远无法企及的、与生俱来的独特天赋。你对这些人有何看法?

杰弗里辛顿:我会对与生俱来这个词稍作反驳。首先,历史上,我们总坚信人类的特殊性,现在应该吸取教训了。我们曾自认宇宙中心,曾以为是上帝的造物,白人也曾自视甚高。我们总是倾向于高估自己的独特性。

我相信,几乎所有人都对心智是什么抱有完全错误的认知模型。假设我喝多了,或者吸食了迷幻药当然我不建议这么做。然后我对你说,我有一种主观体验,眼前有粉红色的小象在飘。大多数人会将其解读为存在一个叫心智的内在剧场。

而且,只有我能看见我心智中的景象。在这个内在剧场里,粉红色的小象在飘动。换句话说,实际情况是我的感知系统出了问题,我正试图向你解释它是如何出错的,以及它想告诉我什么。我表达的方式是告诉你,如果现实世界中真有那样的东西,它所说的才是真实的。

所以,这些粉红色的小象,它们并不在某个内在剧场里,而是对现实世界的假设性描述。这是我告诉你我的感知系统在如何欺骗我的方式。现在我们用聊天机器人来做这个实验。因为我相信,目前的多模态聊天机器人拥有主观体验。尽管很少有人相信这一点,但我会试着说服你。

假设我有一个多模态聊天机器人,它有机械臂可以指向物体,有摄像头可以看见东西。我把一个物体放在它面前,说:指向这个物体。它照做了,没问题。然后,我在它的镜头前放一个棱镜,再放一个物体在它面前,说:指向这个物体。它指向了别处。我说:不,物体不在那儿。物体其实就在你正前方,但我把棱镜放在了你的镜头前。聊天机器人说:哦,我明白了。棱镜折射了光线,所以物体实际上在那里,但我却有它在那里(被指向的地方)的主观体验。

如果聊天机器人这么说,它使用主观体验这个词的方式,就和人类使用这个词的方式完全一样。这是一种关于正在发生的事情的替代性解释。它们是假设的世界状态,如果这些假设为真,就意味着我的感知系统没有出错。这是我能告诉你当我的感知系统在欺骗我时,它正在做什么的最好方式。

机器会有情感吗?

现在我们需要进一步探讨感受力、意识、感觉和情感,但我认为最终它们都将以类似的方式得到阐释。机器完全有可能拥有所有这些。但人们异常自信地断言机器不能有感情,我不知道为什么。假设我造了一个小型战斗机器人,它看到一个比自己强大得多的大型战斗机器人。如果它能感到害怕,那将非常有用。

现在,当我感到害怕时,会发生各种生理反应,这些我们不必深究,机器人身上不会发生。

但是所有认知层面的事情,比如我最好赶紧离开这里,以及我最好调整我的思维方式,以便高度专注,避免分心,这些同样会发生在机器人身上。

人们会编程让它在特定情境下,当应该尽快逃离时,就会感到害怕并逃跑。那时它们就拥有了情感。它们不会有生理层面的反应,但它们会拥有所有认知层面的反应。

我认为说它们只是在模拟情感是很奇怪的。不,它们是真的拥有那些情感。那个小机器人感到了害怕并逃跑了。

主持人:它并非因为肾上腺素而逃跑,而是因为它神经网络中的一系列神经活动产生了与肾上腺素等同的效果。

杰弗里辛顿:你认为而且不仅仅是肾上腺素,对吧?当你感到害怕时,认知层面有很多事情在发生。

主持人:那么你认为是否存在有意识的人工智能?我说的有意识,是指具备人类意识所拥有的那些属性。

杰弗里辛顿:这里有两个问题:一个是经验层面的,一个是哲学层面的。原则上,我不认为有任何东西能阻止机器变得有意识。在我们继续之前,我给你做一个小小的思想实验。

假设我取出你的大脑,再取出一个脑细胞,然后用一个大小完全相同、行为方式也完全相同的纳米机器人替换它这有点像《黑镜》的剧情。当它接收到其他神经元的信号时,它的反应与脑细胞完全一样,发出的信号也和脑细胞一样。这样,其他神经元根本察觉不到任何变化。

好了,我刚用这个纳米机器人替换了你的一个脑细胞。你还会有意识吗?是的。现在你可以看出这个论证要导向何方了。

主持人:是的,那么如果你把它们全部替换掉呢?

杰弗里辛顿:随着我逐个替换,到哪个节点你会停止拥有意识?

主持人:嗯,人们常把意识看作一种虚无缥缈的东西,或许存在于脑细胞之外。

杰弗里辛顿:是的,人们有很多不切实际的想法。他们不知道意识是什么,也常常不清楚自己谈论意识时指的是什么。然后他们就退回到说嗯,我知道它,因为我拥有它,而且我能感知到我拥有它。他们又回到了那种我认为是无稽之谈的心灵剧场模型。

主持人:如果你必须尝试定义意识,你认为它是什么?是因为我认为它只是自我意识吗?我不知道。

杰弗里辛顿:我认为意识这个词,我们最终会停止使用。打个比方,你想了解汽车的运作原理。有些车很有劲(oomph),比如阿斯顿马丁;有些车则逊色不少,比如小丰田卡罗拉。但劲这个词,对于理解汽车并非一个好概念。

要理解汽车,你需要了解电动或汽油发动机及其工作方式。劲确实反映了汽车的部分性能,却不是一个有用的解释性概念。它有点像汽车的精气神阿斯顿马丁的精气神但解释不了太多。

我认为意识也是如此,我们终将弃用这个术语。然而,我不认为有任何理由能阻止机器拥有它。如果你认为意识本质上涉及自我意识,那么机器就必须具备自我意识,它必须具备关于自身认知和相关过程的认知。

我是一个彻头彻尾的唯物主义者,我不认为有任何理由能阻止机器拥有意识。

主持人:那么你认为它们是否具备我们眼中人类与生俱来的那种独特的意识呢?

杰弗里辛顿:目前我对此持保留态度。我不认为存在这样一条明确的界线。我认为一旦机器具备了一定的自我意识,它就具备了一定的意识。意识是一个复杂系统的涌现属性,它并非一种弥漫于宇宙的精髓。

你构建了一个非常复杂的系统,它复杂到足以建立自身的模型,并且能够进行感知。我认为到那时,你就开始拥有了一台有意识的机器。所以我不认为我们现在拥有的东西和有意识的机器之间有任何泾渭分明的区别。

我不认为会有一天我们醒来然后说,嘿,只要加入这种特殊化学物质,它就有意识了。事情不会是那样的。

主持人:我想我们都想知道,当我们不在场时,这些电脑是否像我们一样在独立思考。它们是否在体验情感,是否在应对我想我们大概会思考爱之类的事情,以及那些感觉是生物物种独有的东西。它们会独自沉思吗?它们会有烦恼吗?

杰弗里辛顿:我认为它们确实在思考。一旦你制造出AI代理,它们就会有烦恼。如果你想制造一个有效的AI代理,以呼叫中心为例。目前,呼叫中心有人类员工,他们会表现出各种情感和感受,这些在某种程度上是有用的。

假设我打电话给呼叫中心,其实我很孤独,我并非想知道我的电脑为什么不工作,我只是想找人聊聊。过了一会儿,呼叫中心的工作人员可能会感到无聊或对我感到厌烦,然后会结束通话。如果你用一个AI代理替换他们,这个AI代理需要具备类似的反应。如果有人仅仅因为想聊天而打电话,而AI代理乐意聊上一整天,这对业务来说是不利的。

你希望AI代理要么感到无聊,要么感到恼火,然后说对不起,我没时间处理这个。一旦它做到了这一点,我认为它就具备了情感。正如我所说,情感有认知和行为方面,再加上生理方面。这些元素在我们身上是结合在一起的。如果AI代理感到尴尬,它不会脸红,不会有出汗之类的生理反应,但它可能表现出完全相同的行为。在这种情况下,我会说,是的,它正在体验情感;它有情感。

主持人:所以它会具备类似的认知思维。

杰弗里辛顿:然后它会根据那种认知思维行动,方式一样,只是没有生理反应。

主持人:那有关系吗?它不会脸红有关系吗?这只是一个不同的

杰弗里辛顿:这确实让我们有所不同。是的。对于某些事物来说,生理方面非常重要,比如爱。它们距离像我们一样拥有爱还有很长的路要走。但我不明白为什么它们不应该拥有情感。所以我认为发生的情况是,人们对思维如何运作、感受是什么以及情感是什么都有一个固有的模型,而他们的模型是错误的。

在谷歌工作

主持人:是什么契机让你加入了谷歌?你在谷歌工作了大约十年,对吧?是什么原因让你去了那里?

杰弗里辛顿:我有一个有学习障碍的儿子。为了确保他将来不会无家可归,我需要赚到几百万美元。我意识到作为一名学者,尽管我努力了,也无法赚到这么多钱。我曾开设了一门Coursera课程,希望能借此大赚一笔,但并未如愿。

我明白了获得数百万美元的唯一方法就是将自己卖给一家大公司。幸运的是,在我65岁那年,我有两位非常出色的学生,他们开发出了一种名为AlexNet的神经网络,在图像识别方面非常有效。这项突破促使伊利亚(Ilya Sutskever)、亚历克斯(Alex Krizhevsky)和我一起创办了一家小公司。

我们为公司组织了一场拍卖,几家大公司竞相收购我们。目睹大公司为我们的成果竞标,那种经历既令人兴奋又充满成就感。主持人:那家公司叫做AlexNet。

杰弗里辛顿:不对,那个识别物体的网络叫做AlexNet。公司叫做DNN Research,即深度神经网络研究。

主持人:它做的就是这类事情。我把这张图放到屏幕上。

杰弗里辛顿:这就是变革发生的方式。

主持人:这张图片显示了八张图像,以及AlexNet(也就是你公司的技术)识别这些图像中物体的能力。

杰弗里辛顿:是的。所以它能分辨各种蘑菇的区别。ImageNet数据集中大约有12%是狗。要想在ImageNet上表现出色,你必须能区分非常相似的狗。它在这方面变得非常擅长。

主持人:而且你的公司赢得了好几个奖项,我相信,因为它能够超越竞争对手。所以谷歌最终收购了你们的技术。

杰弗里辛顿:谷歌收购了那项技术以及其他一些技术。

主持人:你是66岁去的谷歌工作?

杰弗里辛顿:我是65岁去的谷歌工作。

主持人:65岁。你76岁离开的?

杰弗里辛顿:75岁。我在那里工作了差不多整整10年。

主持人:你在那儿主要做什么呢?

杰弗里辛顿:他们对我很好,基本上允许我做任何我想做的事情。我研究了一种叫做知识蒸馏(distillation)的技术,效果非常好,现在这个技术在AI领域被广泛应用。知识蒸馏是一种将大型模型(大型神经网络)所掌握的知识转移到小型神经网络中的方法。后来,我开始对模拟计算非常感兴趣,想探索是否有可能让这些大型语言模型在模拟硬件上运行,从而大幅降低能耗。正是在进行这项工作时,我才真正意识到数字计算在信息共享方面的巨大优势。

主持人:他们的顿悟时刻是什么?

杰弗里辛顿:有一个顿悟期,大约一两个月吧,可以说是ChatGPT的出现带来的,尽管谷歌在一年前就有非常相似的东西了。我见过那些,这对我有很大影响。我最接近顿悟时刻的经历是,当一个叫做PaLM的谷歌系统能够解释一个笑话为什么好笑的时候。我一直认为那是一个里程碑。如果它能解释笑话为什么好笑,那它就是真的理解了。而它确实能解释。这一点,再加上我意识到为什么数字计算在信息共享方面远胜于模拟计算,突然让我对AI安全产生了浓厚的兴趣,并意识到这些AI系统将变得比我们聪明得多。

你为何离开谷歌?主持人:您为什么离开 Google?

杰弗里辛顿:我离开 Google 的主要原因是我已经 75 岁,想要退休。但我在这方面做得并不好。我选择在那个时候离开 Google,是为了能在一个 MIT 的会议上更自由地发言。但我离开也是因为我年纪大了,发现编程越来越难。我编程时犯的错误更多了,这很令人恼火。

主持人:您想在一个 MIT 的会议上自由发言。

杰弗里辛顿:是的,那是由《麻省理工科技评论》组织的关于 AI 安全的会议。

主持人:而您在 Google 工作期间不能那样做吗?

杰弗里辛顿:嗯,我在 Google 时也能那样做。而且 Google 还鼓励我留下来研究 AI 安全,说我可以自由地研究 AI 安全方面的任何事情。但你会进行某种程度的自我审查。如果你为一家大公司工作,你会觉得说出有损公司声誉的话是不妥的。即使你可能不会因此惹上麻烦,我个人也感觉这样做不妥。我离开并非因为对 Google 的任何做法感到不满。我认为 Google 的做法其实非常负责任。当他们开发出这些大型聊天机器人时,他们没有立即发布,可能是担心影响声誉。他们有非常好的声誉,不想损害它。而 OpenAI 当时没什么声誉可言,所以他们敢于冒险。

主持人:我的意思是,现在还有一个很大的讨论,关于它将如何侵蚀他们的核心业务搜索。

杰弗里辛顿:现在确实是这样。在某种程度上,这可以说是老生常谈的创新者的窘境。没错,确实如此。

人们应该如何应对 AI?

主持人:我对收听这段对话的人群类型感到惊讶,他们有时会来找我。我听到了来自政界人士、一些农村地区民众、世界各地企业家的声音,无论他们是创建了全球最大公司之一的企业家,还是初创公司的创始人。对于现在正在收听这段对话、身居权力和影响力位置的人,比如世界领导人,您对他们有什么寄语?

杰弗里辛顿:我想说,你们需要的是受到严格监管的资本主义。这似乎是效果最好的方式。

主持人:那对于普通人呢?那些不从事这个行业,对未来有些担忧,不知道自己是否无能为力的人。他们在自己的生活中应该做什么呢?杰弗里辛顿:我的感觉是他们能做的有限。这不像气候变化问题那样,单靠人们把塑料袋和可堆肥垃圾分开就能解决。那不会有多大影响。这取决于我们能否约束住大型能源公司的游说团体。我认为普通人能做的有限,除了尝试向政府施压,敦促大公司致力于人工智能安全。这是他们可以做的。

显赫的家族背景

主持人:您度过了一段迷人而曲折的人生。我想大多数人不知道的一点是,您的家族在许多重大事件中扮演了重要角色。您有一个家谱,是我见过或读过的最令人印象深刻的之一。

您的曾曾祖父乔治布尔创立了布尔代数逻辑,这是现代计算机科学的基础原理(foundational principles)之一。您还有曾曾祖母玛丽埃弗雷斯特布尔,她是一位数学家和教育家,在数学领域取得了巨大的进展。

据我所知,这样的例子不胜枚举。您的曾祖父的叔父乔治埃弗雷斯特,是珠穆朗玛峰(Mount Everest)名字的由来,是这样吗?

杰弗里辛顿:我想他是我的曾祖父的曾祖父的兄弟(great-great-granduncle)。他的侄女嫁给了乔治布尔。所以玛丽布尔就是玛丽埃弗雷斯特布尔。她是埃弗雷斯特的侄女。

主持人:您的远房堂姐(first cousin once removed)琼辛顿,是一位核物理学家,曾参与曼哈顿计划,那是二战时期研发第一颗核弹的项目。

杰弗里辛顿:是的,她是洛斯阿拉莫斯仅有的两位女物理学家之一。然后他们投下炸弹后,她就搬到了中国。为什么?她对他们投下炸弹感到非常愤怒。而且她的家族和中国有很多联系。她母亲和陈曼(Chen Man)是朋友。

这挺奇怪的。

回首往事你会给出什么建议

主持人:杰弗里,回首您的人生,以您现在拥有的洞察力和回顾的清晰视角,如果您要给我建议,您可能会做哪些不同的事情?

杰弗里辛顿:我想我有两条建议。第一,如果你凭直觉感到人们做事的方法不对,或者有更好的方法,不要因为别人说这很傻就放弃这种直觉。不要放弃你的直觉,直到你亲自弄清楚它为什么是错的。

通常,如果你的直觉与所有人都不同,那它很可能是错的,你最终会弄清楚为什么。但偶尔,你的直觉会是正确的,而其他所有人都错了。我就这样走运过。我很早就认定,神经网络绝对是实现人工智能的途径。

关于AI安全的最终寄语

几乎所有人都说那太疯狂了。但我坚持了下来,因为我无法摆脱那种感觉它显然是对的。当然,如果你的直觉是错的,坚持下去也无济于事。但如果你本身直觉就错了,反正也做不成什么大事,所以不妨坚持试试看。

主持人:在您自己的职业生涯中,有没有什么事情是您回首时会说,以我现在拥有的洞察力,在那时我应该采取不同的方法?

杰弗里辛顿:我希望我能多花些时间陪伴我的妻子,以及孩子们小时候的时光。我那时有点沉迷于工作。

主持人:您的妻子去世了?是卵巢癌吗?

杰弗里辛顿:不,那是另一位妻子。我有两位妻子都因癌症去世。

第一位死于卵巢癌,第二位死于胰腺癌。

主持人:您希望花更多时间陪伴她?

杰弗里辛顿:是和第二位妻子,她是个很棒的人。

主持人:您到了七十多岁为什么这么说?您明白了什么是我可能还不知道的?

杰弗里辛顿:哦,只是因为她已经不在了,我现在无法再多花时间陪她了。

主持人:但当时您是知道的。

杰弗里辛顿:当时我想,我多半会比她先去世,因为她是女性而我是男性。但我没有预料到,我就是没能在可以的时候花足够的时间陪伴她。

主持人:我之所以这么问,是因为我们许多人过于专注于事业,以至于想当然地认为伴侣会永远在身边,视他们为不朽的存在。所以我们...

杰弗里辛顿:她非常支持我花大量时间工作。

主持人:那您为什么也提到了孩子呢?

杰弗里辛顿:我在他们小时候没有花足够的时间陪伴他们。

主持人:现在后悔吗?是的。如果给我的听众关于人工智能和人工智能安全的最后一条寄语,杰弗里,那会是什么?

杰弗里辛顿:我们仍有机会去探索,如何发展出不会试图取代我们的人工智能。正因为尚存机会,我们应该投入巨大的资源去努力研究清楚这一点。因为如果我们不这样做,它就会取代我们。您有希望吗?我不知道。我持不可知态度。

主持人:您晚上上床睡觉时,思考可能的结果概率,一定会有倾向性吧。因为对我来说肯定有。我想现在正在听的每个人内心都有一个可能不会大声说出来的预测,关于事情会如何发展。

杰弗里辛顿:我真的不知道。我认为这充满了极大的不确定性。当我有点沮丧时,我想,人类完蛋了,人工智能会接管。当我心情愉快时,我想,我们会想出办法的。

主持人:也许人类的一个特点就是,我们总觉得自己会永远存在,就像我们谈论亲人和关系时那样,漫不经心地认为我们会永存,能解决所有问题。但万事万物都有开始和结束,就像我们从恐龙身上看到的那样。

杰弗里辛顿:是的,我们必须正视这种可能性:除非我们尽快采取行动,否则人类可能已接近尾声。

对人类幸福的最大威胁是什么?

主持人:我们的播客有一个结束的传统,上一位嘉宾会在他们的日记里留下一个问题。他们为您留下的问题是... 根据您对未来的一切看法,您认为对人类幸福的最大威胁是什么?

杰弗里辛顿:我认为失业是对人类幸福一个相当紧迫的短期威胁。我认为如果大量人失业,即使他们获得全民基本收入,他们也不会快乐。

主持人:因为他们需要目标感。

杰弗里辛顿:因为他们需要目标感。是的,还需要奋斗。他们需要感觉自己在做贡献,自己是有价值的。

主持人:您认为大量工作被取代这种结果,可能性很大吗?

杰弗里辛顿:我认为这种可能性绝对很大。如果我在呼叫中心工作,我会非常害怕。

主持人:按照数学计算,这个时间范围是多久?

杰弗里辛顿:我觉得这已经开始发生了。我最近在《大西洋月刊》上读到一篇文章说,现在大学毕业生找工作已经变得困难了。这其中部分原因可能是人们已经在那些本属于他们的职位上使用AI了。

主持人:我和一家大型公司的CEO聊过,这家公司大家都知道,很多人都在用。他私下告诉我,他们曾经有超过7000名员工。他说到去年年底,员工人数已经降到了5000人。他说现在他们只有3600人。他说到夏天结束时,由于AI代理,他们的人数会降到3000人。所以这已经在发生了。他将员工数量减半了,因为AI代理现在可以处理80%的客户服务咨询和其他事务。所以,这已经在发生了。所以急需采取行动。杰弗里辛顿:是的,我不知道那个行动是什么。这个问题很棘手,因为它在很大程度上取决于政治体系。而目前的政治体系都在朝着错误的方向发展。

主持人:我们需要做什么?攒钱吗?比如,我们存钱吗?我们搬到世界的另一边吗?

杰弗里辛顿:我不知道。

主持人:你会告诉你的孩子做什么?如果他们说,爸爸,工作会大量被取代。

杰弗里辛顿:因为我在 Google 工作了十年,所以他们经济上还算宽裕。所以他们的情况不具代表性。如果他们没有钱呢?去学当个水管工吧。

主持人:真的吗?

杰弗里辛顿:是的。

主持人:杰弗里,太谢谢您了。您是我这辈子遇到的第一位诺贝尔奖得主,我想是这样。所以这是莫大的荣幸。您因一生的杰出工作而获得这个奖项,您在许多深刻的方面推动了世界的进步,这将带来重大的发展和对我们如此重要的事物。

现在,您将人生这个阶段的重心转向了继续自己的研究,同时也聚焦于人工智能更广泛的风险,以及它可能如何对我们产生不利影响。很少有人像您这样,曾在大科技公司(如Google)内部为AI领域做出贡献,如今却站在前沿,警示我们防范那些他们曾为之努力的事物。

杰弗里辛顿:事实上,现在像我们这样的人出奇地多。

主持人:他们不像您这样公开,而且实际上很难请他们来进行这种对话,因为他们中的很多人仍然在这个行业工作。所以,像我这样经常尝试联系这些人并邀请他们对话的人,会发现他们往往对公开谈论有所顾虑。所以他们私下会谈,但不太愿意公开,因为也许他们还有某种激励机制在起作用。

杰弗里辛顿:我比他们有一个优势:我年纪大了,已经退休了,所以可以畅所欲言。

主持人:好吧,原来如此。所以谢谢您做的一切。这真是荣幸,请务必继续这样做。谢谢。

参考资料: https://www.youtube.com/watch?v=giT0ytynSqg,公开发表于2024年6月10日(日期根据图片文件名推断为2024年,原文为2025,此处修正为更合理的时间)

关注公众号后设????标,掌握第一手AI新动态

btw:如果您对AI一线动态、AI产品构建及转型感兴趣,并愿意和小伙伴们分享互动,欢迎加入瓜哥交流学习群参与讨论(联系瓜哥wx: southmelon,注明:所在行业、申请入群原因),群内定期分享瓜哥手搓Agent整理的全球AI动态内参~

[ 打印 ]
评论
目前还没有任何评论
登录后才可评论.