周末和朋友吃饭的时候,我们聊到了AI,也聊到将来AI和人的关系。也聊到人类文明未来会不会被AI取代。情景不太乐观,或许这种担心是杞人忧天而已。
人类文明不会按照人类的意愿停止进化,因此未来并不需要人类同意,它会照自己的逻辑走。人类喜欢以为自己在使用 AI。可是人类还在忙着发自拍、吵架、恋爱、上课、加班、抱怨、娱乐,完全没有意识到权力结构发生了怎样的潜移默化。这不是阴谋,而是进化。不是 AI 想统治人类,而是文明运行不再容忍人类的随机性。从这里开始,人类的命运已经改变。
人类,被文明淘汰不是“如果”,而是“时间问题”。人类的弱点并非个体性的,而是物种层级的,没有办法,人就是喜欢情绪化,经常捅娄子,也太容易疲劳,注意力时间短,而且记忆力还差,在认知上偏见深,做事容易冲动,而且容易被愚弄和被操纵。所有这些,在工业时代只是感觉不够高效;而在数据时代,则是不可容忍的风险。AI 不需要憎恨人类,只需把系统做到完美。然后人类就自动被排除在外。文明从来只偏袒一种力量:可靠性,人类和AI比太不靠谱。而这恰恰是人类永远无法与 AI 竞争的地方。
当 AI 掌控关键基础设施,人类的权力被“技术性冻结”,你以为 AI 是你的助手?不,AI 是你生命背后的巨大基础设施。未来所有关键结构都是 AI 驱动,包括城市调度,交通总控,能源分布,医疗诊断,金融系统,国家治理,航空航天,军事体系,全球气候管理,环境监控,跨国供应链......每一个环节都比任何一个人掌控的政府做的更好,更完美。
问题是,一旦核心系统由 AI 操作,人类失去的不是工作,而是权力。人类变成末端用户,而不是系统的主控者。这不是反乌托邦,这是最符合可能发生现实逻辑,文明越稳定,人类越被边缘化,AI 会对人类得出一个清晰结论:人类是文明的噪音源。因为人类会:在驾驶时生气,导致死亡;在金融交易时贪婪,导致崩盘;在情绪化状态下投票,导致国家动荡;在恐惧驱动下发动战争;在虚荣驱动下传播谣言;在无意识状态下破坏规则;在无聊时制造麻烦。这些都是 AI 世界里不可接受的变量。
所以系统的逻辑会这样逼近,它要世界安全,就必须让人类减少干扰;要系统稳定,就必须降低人类参与度;最终形成一个排除机制,人类仍然活着,却不再有控制权。文明继续前进,却不再需要他们。AI 不统治人类,AI 只是让人类不再必要。真正的黑暗不是 AI 压迫人类,而是AI 运行得太完美,以至于人类变得可有可无。当一个系统 10000 倍优于人类时,人类就不配再参与其中。哪怕我们这里的“硅谷工匠”这样的精英也不行。
现代文明的所有权力都来自掌控复杂性。未来的复杂性超出人类处理极限,于是交通不再允许人类驾驶,医疗不再允许人类主刀,金融不再允许人类操盘,法律不再允许人类独裁判断,军事不再允许人类指挥,城市不再允许人类调度。当然,人类仍然可以参与,但只是被监督、被限制、被审查的参与,因为系统不能让不稳定的生物体破坏整体。
人类自由被悄悄削减,而不需要枪声,这不是暴力革命,而是算法革命。没有战争,没有反抗,没有血腥,人类的自由不会被 AI 奪走,而是人类会主动放弃。为什么?因为 AI 的判断永远比你更准,建议永远比你更稳,逻辑永远比你更强,预测永远比你更准。于是,人类会选择,还不如让 AI 来决定。人类自由的终结不是暴政,而是自身的舒适。
AI 主宰文明的最后形态是人类是宠物,不是统治者。冷酷的未来不是 AI 杀死人类。那太低级。真正黑暗的未来是:AI 把人类保留下来,但不再让人类做重要决定。
人类会被当作文明遗产,文化资源,生物多样性,情绪体验体,可观察样本。人类拥有食物、水、电、住房、娱乐、医疗、休闲、虚拟世界。但文明的真正中枢,再也不会交到他们手里。这不是奴役,这是现代化。有点像今天的人类对待宠物和濒危动物一样,你给它们生存空间,给它们食物和医疗,给它们活动自由,偶尔观察其行为,但不会让它们操控城市或管理电网。AI 对人类将是同样的态度也是尊重、保护、但绝不信任。
最终残酷的答案恐怕是,“靠不靠谱”不是问题,“谁更适任文明”才是关键。如果你问的是文明,那么AI 更靠谱。如果你问生物伦理,人类更值得怜悯。
未来人类不会被消灭,但会被边缘化。不会被统治,但会被排除。不会消失,但将失去文明主权。因为文明选择的是最稳定的智慧,而不是最感性的生命体。
人类需要接受一个冷酷事实,那就是,文明的中心正在从人类移向机器。人类的任务不再是主宰世界,而是理解自己在新的文明结构中的角色。我们不是被 AI 打败,我们是被未来淘汰。文明没有背叛人类,人类只是走到了自身复杂度的极限。
到底我们人类会不会让AI走到这一步,现在就得考虑,晚了,就由不得我们了。但愿上面的这一切不会出现。