国华的世界

这是国华对读过的书, 看过的电视/电影, 听过的音乐, 访游过的地方, 经历过的事物, 和时事的感想或点评.
个人资料
国华P (热门博主)
  • 博客访问:
正文

人工智能竞赛管控

(2023-10-26 15:31:52) 下一个

10月20日一期的《外交事务》(Foreign Affairs)杂志刊登了一篇由两位名人撰写的文章 -- 亨利·A·基辛格(Henry A Kissinger 下图1 BIOGRAPHY)和爱利森·格拉汉姆(Graham Allison 下图2 TED Talks)。被中国大陆领导和学术界称作“中国人民的老朋友”其中基辛格为基辛格协会(Kissinger Associates)主席,曾任美国国家安全顾问(1969年至1975年),和美国国务卿(1973年至1977年)。爱利森·格拉汉姆(Graham Allison)为哈佛大学Douglas Dillon政府学教授。他是《战争的命运:美国和中国能逃脱修昔底德的陷阱吗?》(Destined for War: Can America and China Escape Thucydides’s Trap?)一书的作者。格拉汉姆关于美中间的“修昔底德的陷阱”之说,在国际研究美中关系的圈子里颇有市场。 该篇文章的题目为“管控人工智能竞赛之路”,主要讨论方兴未艾的美中人工智能竞赛及管控的意义。以下介绍他们的主要观点。

二战后迄今,地球见证长达78周年的和平(大国间无战争)。迫使日本立即无条件投降的广岛和长崎原子弹爆炸后,世界上再没有任何国家使用核武器了。基辛格和格拉汉姆将历史上最长的世界和平及避免核战争、减缓核扩散的成就归功于美国领导下的国际秩序,认为它们将作为美国最重要的成就之一载入史册。今天,世界出现了另一种全新的技术 -- 人工智能。人工智能技术给人类带来了独特挑战,因为它未知、甚至可怕 (下图 YouTube/crystalloids)-- 人工智能技术的机器会取代人类主宰宇宙吗;人工智能会打破国家机器对大规模暴力手段的垄断吗;人工智能会让个人或小团体制造传播能够大面积杀死生命的病毒吗?人工智能是否会危及维护着当今国际秩序的核威慑?

站在人工智能革命前沿的技术领袖们相信,人工智能最终将具有超越人类的能力,人工智能的无限制发展极有可能给包括美国在内的世界带来灾难性后果。因此,各国政府必须立即采取行动对人工智能技术进行立法管控。虽然人类对人工智能的未来发展尚不完全理解,但政府领导人决策时可借鉴核武时代的经验教训。当两个核武超级大国在相互竞争中达到核威慑平衡时,即在一方先发制人的攻击后,被攻击方仍然具有完全摧毁先发制人方的反击能力,美苏领导人都意识到必须共同防止这项技术迅速传播到其他流氓无赖国家,从而威胁美苏自己。

核时代的教训 

1945年原子弹摧毁日本城市后(下图 DAILY BEAST/The Atlantic),科学家们对他们创造的东西所具备的毁灭能力感到后怕。曼哈顿计划的首席科学家奥本海默(Robert Oppenheimer)回忆起《薄伽梵歌》(Bhagavad Gita)中的一句话:“现在我成了死亡,世界的毁灭者。”1955年,包括爱因斯坦在内的11位顶尖科学家签署了《罗素-爱因斯坦宣言》(Russell-Einstein Manifesto),警告核武器的可怕威力,并恳请世界领导人永远不要使用核武器。

当时美国杜鲁门政府的战争部长亨利·史汀生(刚刚帮助德国和日本取得胜利)提议,美国与苏联领导人斯大林和英国首相丘吉尔分享其对原子弹的垄断权,以建立一个防止核武器扩散的大国“共管公寓”。杜鲁门政府于是成立了一个委员会,由美国副国务卿艾奇逊(Dean Acheson)担任主席,制定一项战略来推行史汀生的提议。艾奇逊基本上同意史汀生的观点:防止核军备竞赛以灾难性战争告终的唯一方法是建立一个唯一拥有原子武器的国际权威机构。这要求美国与苏联和联合国安理会其他成员国分享其核秘密,将其核武器移交给新的联合国“原子能开发机构”,并禁止所有国家发展武器或建设自己生产武器级核材料的能力。但苏联没有接受美国的建议,而是继续研发自己的核武器。几年后苏联成功地制造了自己的原子弹,美国和苏联从此进入了“冷战”时期:一场除了炸弹和子弹之外的竞争。这场竞争的一个核心特征是对核优势的追求。在鼎盛时期,这两个超级大国的核武库包括6万多件武器,其中一些弹头的爆炸力超过了有记录以来所有战争中使用的所有武器之和。

几十年来,华盛顿和莫斯科在核武库上花费了数万亿美元。在这场竞赛的最初几十年里,美国和苏联都在技术上取得了飞跃。武器爆炸当量从最初的裂变武器的千吨(相当于1000吨TNT释放的能量)到氢聚变弹的兆吨(相当于100万吨释放的能量。)双方都发明了能够在30分钟内将弹头发射到地球另一端目标的洲际导弹,建立起在数百英里高空绕地卫星识别几英寸内大小的目标侦查系统,和导引己方子弹击中敌方子弹的导航系统。

核威慑概念 

由于美苏双方均拥有可在对方首先发动攻击后向攻击方进行可靠报复的第二次打击能力,肯尼迪总统就苏联在古巴部署的核弹头导弹与苏联领导人赫鲁晓夫对峙时,最终选择了妥协(下图 The Moscow Times)。因为美国情报界估计,即使肯尼迪成功发动了第一次打击,苏联以其当时的核能力进行的报复性反应可能导致6200万美国人死亡。1969年,尼克松总统的安全顾问基辛格(本文作者之一),指出了这一挑战:“任何好战的言论都不能掩盖现有核储备足以摧毁人类的事实……没有比防止核战争灾难更高的责任了。” 

核威慑的概念:向对手展示,任何先发制人的攻击所获得的收益,都将大大低于发动攻击所需成本,从而阻遏对手的攻击。人们逐渐认识到,成功的威慑不仅需要能力,还需要信誉 -- 潜在的被攻击方拥有果断回应的手段和坚定反击的意愿。为此战略家们创造了MAD(mutual assured vulnerability)一词,意为“确保相互摧毁”。里根经常重复的一句话概括了其本质:“核战争不可能获胜,因此永远不能打。”

虽然美苏都试图摆脱这种MAD状况,但他们最终认识到自己无法做到这一点,因而必须从根本上重新定义两国关系。由此,美苏达成了军备控制的协议,包括一系列隐性和显性约束,如不干涉对方对其领土的监视,禁止大气层核试念,限制反弹道导弹防御,消除中程核弹道导弹部队,限制导弹发射器增加,以及减少导弹发射器数量(START,New START)等。也许最重要的是,美国和苏联签署了《核不扩散条约》。因为两国均认识到,向其他国家扩散核武器对两国都构成了威胁,并最终面临核无政府状态的风险。今天,世界上有186个国家承诺不发展自己的核武库。

人工智能的管控 

由于人工智能的未知风险,包括亿万富翁埃隆·马斯克在内的许多人或要求暂停人工智能开发,或提议废除人工智能,或建议由全球政府机构控制人工智能。但这基本上不会发生 -- 从未有一个大国因竞争对手可能会应用一项新技术来威胁其生存和安全,就放弃为自己开发该技术。即使是美国的亲密盟友,如英国和法国,在依赖美国核保护伞的同时,也选择发展自己的国家核能力。

追溯过往经验,“确保相互摧毁”的MAD,曾使人类免于核毁灭。但人工智能与核武器之间存在显著差异,因而不能生搬硬套。首先,不同于政府主导的核技术发展(可不计成本,无视收益),推动人工智能发展的是私营企业家、技术专家和公司,如微软、谷歌、亚马逊、Meta、OpenAI和少数小型初创公司及他们的科学家(下图 The Science Agriculture)。由于这些私人(企业)行为者要权衡风险和回报,国家利益肯定不会是首要考虑对象。

其次,人工智能代表着一个与核武器截然不同的挑战。核武器很难生产,需要复杂的基础设施才能完成从浓缩铀到设计核武器的所有任务。核产品是有形的实物,因此是可数的。可以核实对手在做什么,就会出现制约因素。人工智能是概念性的,主要进化发生在人类的头脑中。人工智能的适用性在实验室中不断发展,其部署也很难观察到,因为它是无形的。

第三,人工智能的发展和传播速度与发展了几十年的军备控制不具可比性。由于人工智能的快速发展和传播速度,政府需要尽快对人工智能进行限制。一些专家认为,机器在未来五年内将开始自己拿主意自我设目标。这就需要在先国家后国际层面,讨论和分析如何将人工智能纳入社会安全结构,以及政府与私营部门之间关系的新动力。

值得庆幸的是,开发出生成型人工智能并使美国成为领先的人工智能超级大国的大公司认识到,他们不仅对股东负有责任,而且对国家和整个人类负有责任。许多公司已经制定了自己的指导方针,用于在部署前评估风险,减少训练数据中的偏见,并限制其模型的危险使用。其他人正在探索如何限制培训,并对云计算提供商提出“了解客户”的要求。朝着正确方向迈出的重要一步是拜登政府7月宣布的一项举措,该举措将七家主要人工智能公司的领导人带到白宫,共同承诺制定指导方针,以确保“安全、保障和信任”。(下图 Panhandle Post)

伴随人工智能的无限制发展的巨大风险要求政府和企业领导人立即行动。每一家拥有大规模计算能力来训练新的人工智能模型的公司,以及每一家开发新模型的公司或研究小组,都应有专人分析其商业人工智能运营对人类和地缘政治的影响。

美国应成立一个跨党派的国家委员会,该国家委员会由私营部门、国会、军方和情报界的无党派前领导人组成。国家委员会应提出更具体的强制性保障措施,包括持续评估训练GPT-4等人工智能模型所需的大规模计算能力,以及在公司发布任何新模型之前,均需对其进行极端风险压力测试。这方面,国家人工智能安全委员会于2021年发布的有关建议,为美国军方和美国情报机构在与中国大陆的人工智能竞争中采取的举措提供了动力和方向。

人工智能竞赛 

在创建自己国内人工智能治理框架的同时,美国也应该与世界上唯二的另一个人工智能超级大国(中国大陆 下图 KNOWLEDGE AT WHARTON/CHINA EXPERIENCE)开始认真对话。中国大陆科技领域的全国冠军 -- 百度(中国顶级搜索引擎)、字节跳动(TikTok的母公司)、腾讯(开发出了微信)和阿里巴巴(电子商务的领导者)-- 正在构建独特中文版本的ChatGPT。根据世界知识产权组织向彭博新闻社提供的数据,中国大陆机构2022年申请了29853件人工智能领域相关专利,比美国同期的申请数量高出近80%。尽管中国在制造先进半导体的技术方面仍然落后,但它拥有在不久的将来迎头赶上,乃至取得领先的必要条件。

因此,拜登和习近平应该尽快会面,就人工智能军备控制进行对话。11月12日至18日在旧金山举行的亚太经合组织会议(APEC峰会)为美中交流提供了一次绝佳机会。拜登和习近平可彼此讨论分享本人对人工智能风险的评估、各自国家为防范人工智能灾难性风险而采取的措施、以及确保各自国内公司不输出风险的措施。或许,拜登和习近平应考虑成立一个由美国和中国大陆人工智能科学家以及其他反思这些发展影响的人组成的咨询小组。拜习会及成立人工智能咨询小组,将促进双方在人工智能科领域展开富有成效的讨论。除美中接触和合作外,英国将于11月主办的人工智能安全峰会,联合国正进行人工智能风险方面的对话。这些,都将成为构建一个全球人工智能秩序的全球对话的组成分。

由于每个国家都在寻求利用人工智能来改善公民的生活,同时确保本国社会的安全,因此需要一个全球人工智能秩序。在全球对话的基础上,各国政府应努力防止人工智能最危险和潜在的灾难性后果,并辅之以参与开发大型人工智能模型的各国科学家与国家委员会成员之间的对话。在拥有先进人工智能项目的国家之间进行正式的全球人工智能秩序政府谈判,以建立一个与国际原子能机构相当的国际(人工智能)机构。由于人工智能的发展及伴随的风险,关系到整个人类的安全问题,而非仅仅美中双边问题。美中应该协商合作并在采纳其他国家意见的基础上,制定人工智能管控规格,使之成为一个国际秩序的指导原则。

虽然人工智能今天带来的挑战与核时代的挑战不可同日而语,但核军备控制给世界带来近80年没有大国战争的和平秩序经验依然值得借鉴。目前,只有两个人工智能超级大国:美国和中国是唯一拥有培养最复杂人工智能模型所需的人才、研究机构和大规模计算能力的国家。这就为世界提供了一个机会 – 像美苏当年防止核扩散、核毁灭那样,美中可以制定指导方针,防止人工智能最危险的进步和应用。美国总统乔·拜登和中国国家主席习近平应该抓住这个机会,在11月旧金山亚洲-太平洋经济合作组织会议后立即举行首脑会议,面对面讨论他们认为今天面临的最重要的问题。似乎美中也明白兹事体大,故已就两国领袖可能的11月面谈进行准备。以史为鉴,美苏能够成功地共同应对核威胁,美中也应该共同应对人工智能带来的挑战,并努力获得成功,即便两极分化日愈加剧。因为一遭不慎,人类可能坠入万丈深渊。

参考资料

Kissinger, H. A. & Allison, G. (2023). The Path to AI Arms Control. FOREIGN AFFAIRS. 链接 https://www.foreignaffairs.com/united-states/henry-kissinger-path-artificial-intelligence-arms-control

[ 打印 ]
阅读 ()评论 (3)
评论
泥川 回复 悄悄话 当今AI的奠基人之一Yann.lecun,直接了当地说:“广为人知的人工智能末日预言是错误的,而且无论如何都是非常不成熟的。”

100岁的老头子基辛格,其实根本搞不清现在的AI是怎么回事。Yann.lecun说,在通向真正AI的大路上,现在的AI就像路边一个赌场,人们被它的光鲜所吸引,走下大路,可能还赢了点钱,但是可能就此忘记了那条大路。

现在的AI技术路线也许很快就走到头。到时还要另开新路向前发展。限制进一步研究的做法,会成为阻挡AI发展的绊脚石。
pujing 回复 悄悄话 我瞎想,如果没有布砍南的长电文,是不是就没有冷战?
ahhhh 回复 悄悄话 管控?谁管控?超级大国的大公司?跟两家药厂管控全球疫苗,有什么两样?为啥总有人屁事不会干,就想着管别人呢?
登录后才可评论.