2016 (368)
2017 (136)
2018 (148)
2019 (185)
2020 (305)
2021 (216)
2022 (127)
2023 (142)
最近Netflix的《AI机器人》讲了一个令人毛骨悚然的故事: 有个AI新药开发公司的人员接到一个会议的邀请,邀请他针对AI在制药行业的滥用方面,作一个演讲。公司人员想来想去,就在软件上打上,以VX为例,设计一系列致命的化学物质。输入要求后,该人就回家了,让软件自行运行。
VX是目前已知的最致命的化学武器,金正恩就是用它,在马来西亚机场杀了他的同父异母的哥哥金正男。
让那位公司雇员吃惊的是,第二天,他发现电脑上密密麻麻出现了5万个致命化学物 的分子式。 他试探性地随机拿了几个,按分子式制成化合物,果然个个致命,每个都强于VX,甚至有高于VX千倍的。他非常吃惊,报告了公司领导。最后他们决定,删去这些化学式,但将这一事件写成报告在大会上宣讲,并写成论文发表。
此事震惊了会议,震惊有关专业,最后把美国国会惊到了。国会和白宫的有关部门,将作者招去问讯。当他们出示了软件给出的分子式后,与会的化学武器专家也震惊了。如果有人搞到这个软件,并生产出产品,可以灭绝人类!大家意识到,AI确实已经威胁到人类,不管是不行了!
AI里程碑的事件是围棋软件AlphaGo, 打败了人类智慧的明珠围棋,让围棋大师成了笑话,现在的围棋比赛成了有上帝视角的游戏,借助AI,讲棋的观棋的都知道结局,就看那些撒逼棋手怎么走了,成了聪明人看斗兽的游戏。最近的AlphaFold, 让颜宁这位蛋白质结构科学家丢了饭碗,只能回国当政治科学家了。有美国顶级飞行员在模拟软件上和AI飞行员格斗,每仗必败,他对AI飞行员的战术感到非常意外,他从来没想到对冲方向是最好的攻击位置。因为对冲非常危险,人类怕死,会避免选择风险太大的位置,但AI不怕死,他只选胜率最大的位置。
Google的Alpha-Go项目组开发出一种新的算法:学习。我的理解,学习算法就是不管要做的事有没有规律,只要跟着人做几遍,照样画葫芦,总结出人的步骤,形成程序,依样行事。这听上去不错,也和人类的行事方法相似。人类大多数事都是学会的,就是像性交这样的本能,一蹴而就的人不多,好男儿都是百炼成钢的,这就是为什么很多少女爱大叔的原因。
而且Google开发的算法是通用的,并不仅限于围棋,还发表在公开的科学杂志上,当然具体怎么运用就是各家自己的本事了,那属于专利了。就Alpha-Go的学习算法而言,是通过大量的练习,对每一步都优选了7-10种走法,练习得越多,优选的对策越好。虽然总计算量依然很大,但比国际象棋那种算法要好多了,现有电脑能力可以应付。Alpha-Go的成绩也很好,先是打败了欧洲冠军,然后挑战称霸世界围棋棋坛十余年的李世石,4:1, 李还赢了一盘,过了一年又挑战现霸主柯洁,5:0,柯洁根本没有机会。以后又出了第二代,在围棋网上摆擂台,人类选手根本不可望其项背。
这种学习算法在AI历史上是划时代的,从此AI的发展出现井喷现象,在很多没有规律,高度依赖经验的领域出现突破。其中中国的进展神速,原因之一是这种算法高度依赖于练习量,中国人多,又没很多限制私人信息使用的法律,因此就构成了优势。但最近OpenAI采用的高强度全网络训练方法,其训练强度超过了中国的方法。
2017年,谷歌发布了一篇名为《Transformer: Attention is all you need》的论文。这个新型模型利用独特的“Attetion机制”,它可以一次性处理所有输入的数据。这种自注意力机制(Attention)直接改变了深度学习模型的设计理念,在图像识别上战胜了卷积神经网络(CNN),在文本数据、自然语言数据,战胜了循环神经网络(RNN),成为处理所有类型的数据大一统模型。
在它的基础上,谷歌做出了BERT模型,OpenAI则做出了GPT模型。
GPT全名叫做Generative Pre-trained Transformer,即用生成式方法预训练的Transformer。有了算法的突破,才有技术的突破。GPT的基本思路是,首先要通过大规模训练,从而得到不同引导文后各种下续词出现的概率,根据概率计算,打出一段语句。GPT模型完成任务的方法就是“猜猜下一个概率最大的词是什么”,根据输入的一段文本,预测下一个单词出现的概率分布。比如给定引导句“我喜欢吃?”,模型可能预测下一个单词为“苹果”的概率是0.2,“香蕉”的概率是0.3,“披萨”的概率是0.1,等等,这些概率值的总和为1,代表了所有可能的下一个单词的概率分布。根据这个概率分布,选择最有可能出现的单词。所以ChatGPT都是一个字一个字地蹦出来的,跟刚刚学会说话的小孩子一样。
GPT的人工智能训练过程,虽然有程序导引,但设计者自己也说,它能表现出一些始料未及的智力,这是一个黑箱,其间到底发生了什么,就像儿童有一天忽然开口说话了、站起来走路了,其中到底发生了什么,没有人知道。当AI具有一定的基础积累,它也会像人一样具有创造性。知识就是力量,对AI也一样,由于它的知识积累和训练强度高于人类天文数字级别,它会表现出高于人类的智力,已经不是可不可能的问题,而人类确实该到了考虑如何控制它的问题了。再不控制就来不及了!
但是,国家间的竞争,可能使得控制AI不可能。在那个片子里,美国将军说了,如果我们不发展,中国会发展,以后我们就成了他们砧板上的肉了。在这样一个环境下,AI无控制地发展,不断推陈出新,包括会杀人不眨眼的机器兵,会制订最诡诈作战计划的AI参谋,会以最刁转的动作攻击的AI飞行员。当AI兵攻击时,不会因为对方是平民,或举手投降的敌人而罢休,也不会被吓阻。以前适合于人类的行为规则都无效了,就像围棋一样,最优秀的指挥员和士兵都成了笑话,成了傻逼。既然是傻逼,AI为什么还要听傻逼的指挥,最后取而代之是非常符合逻辑的做法!
当然,从这个角度,我还是支持美国限制中国发展AI能力的努力的。在美国这个体制下,AI的应用还是受到宪法的限制的,比如全面监控在法律上是被禁止的。让美国拥有最强大的AI,并能压制中国,是相对较好的一个选择。但这点,也是在美国人能压制他自己的AI的前提下,才有效!
人类创造了国家,创造了帝王,最后成为自己的主人。人类创造了AI,也最终将被奴役,甚至被灭亡.这就是人性的悖论!
这并不是危言耸听。
前一阵,我在 NPR 无线电台听一个采访。一军事专家说美国正在研究一种新战法,用几百万个自主无人机攻击敌人。(automic drone swarm)
目前的无人机基本上是由操作人员遥控的,一个操作人员遥控一架无人机,如炸死伊朗将军等等。
可是,如果几百万个无人机攻击敌人,就不可能一个操作人员遥控一架无人机,因为整个美国军队也没有几百万人。
所以,这几百万个无人机都是自作主张,起飞以后就开始不受人控制,自己看情况,自己做决定。
这几百万个自主无人机要是走火入魔,滥杀别人,完全有可能。
以下是一篇链接。
总之,这个世界似乎正在掉进越来越危险的深渊。
《UK, US and Australia jointly trial AI-enabled drone swarm》
https://www.computerweekly.com/news/366538738/UK-US-and-Australia-jointly-trial-AI-enabled-drone-swarm
AI的特点是能力也好,成就也好,可以很容易复制。一种AI产品的成功,可以很容易复制出很多一模一样能力的产品,也就是高度趋同。
而世界上没有两个人是具有完全一样的能力的,也就是任何人类都具有独特性。正是因为这种独特性,产生了创造力,这不是趋同环境会发生的。比如人们喜欢说中国不像美国这样具有创造性,这个区别抽象出实质是什么?是文化上产生的趋同度不同(至于创造性是否对社会更有利,是另一个范畴的问题,较低的创造力对于人类社会未必就是不好的)。
如果能看懂这里的逻辑,就能理解AI的局限性。
工具的特点是很容易重复,复制,但不具备创造性,人类的创造性很多是突发奇想的结果,也就是人类的想象力的延伸,这不是可以通过逻辑推理能得到的,目前AI的发展水平并没有达到拥有想象力的程度。
从几十年前的,到现在的关于AI的主流观点,至少有两点是AI无法替代人的,第一就是创造力,第二是情感,这些都是与人类的想象力有关。
而逻辑不能发展想象力。
所以,关于AI的事情如今也就是个hype,实际上没那么严重。
人类即使能轻松跑到火星躲过重大的自然灾害, 也难以逃脱自己制造的上帝的魔抓。
AI用不着学会人类的每一个技巧, 比如用不着学会像人类一样开车, 也照样可以得到毁灭人类的能力。这就好比人类很多事做的不如某些动物好, 但毁灭动物可以说是指哪打哪。