https://mp.weixin.qq.com/s/_S8iv2ya4TsArDdVekSD9g
有句话叫AI的尽头是算力,但算力的尽头是电力。其实这句话讲得很有道理。英伟达CEO#黄仁勋?过去几年一直讲AI是新工业革命,而工业革命的另一面则是能源革命。
比尔·盖茨在他的2017年度书单里推荐了一本书,叫《能量与文明》,书中的一个核心观点是:能量才是唯一的通用货币。要想达成任何目标,能量都必不可少。大到改变板块构造的力量,小到微小雨滴的累积侵蚀。人类作为唯一能够系统地利用体外能量的物种,在利用能量来开发智力、制作器具——从最简单的工具,到现代最先进的内燃机和核反应堆。
而看过这么多黄仁勋的访谈,他绝大多数时候,都是在谈技术,但是偶尔也会谈及一些行业话题,主要包括两个领域:医疗和能源。
?
就在上周,哥伦比亚大学全球能源政策中心首届研究员David Sandalow主持的《AI、能源与气候播客》(AI,Energy and Climate)发出了一期对黄仁勋的访谈,内容就是AI之于能源的关键话题,包括:AI如何助力解决能源与气候变化?AI惊人的算力背后,其电力消耗是福是祸?未来“智能基础设施”究竟意味着什么等等。
虽然黄仁勋对AI能源的话题讲的非常系统,但我反而对访谈最后的两个彩蛋内容兴趣更大:一个是谈他的管理哲学(第十一个话题),另一个则是谈最近黄仁勋在看什么书(第十三个话题)。
其中管理哲学部分说的是英伟达一个特殊的周报制度T5T。在英伟达传记《英伟达之道》一书中,详细介绍过黄仁勋推行的“T5T”(Top5Things)管理法:英伟达约3万名员工,无论职位高低,都需定期发送简短邮件,列出自己当前最重要的五件事,包括正在做的工作、遇到的挑战或观察到的行业动态。这些未经层层过滤的第一手信息,可以帮黄仁勋捕捉到“弱信号”,即那些尚未显现但潜在重要的趋势和问题。
在读书推荐部分,黄仁勋说自己在看很多战争理论相关的书籍,比如《孙子兵法》。不过他也强调,其实书里的核心思想是“止戈为武”,“慎战”和“善战”才是王道啊。
一、人工智能:理解复杂数据的超级能力
对话一开始,主持人David Sandalow便将焦点引向了AI在解决能源与气候问题上的核心潜力。黄仁勋指出,AI的核心优势在于其处理和理解数据的能力,这种能力在规模和维度上都远超人类极限。
?
黄仁勋强调,AI能够同时理解多模态信息,例如温度、风速、压力等各种类型的数据。这使得AI可以分析极其庞大、跨越长时间尺度的数据集。正是基于这种强大的数据理解能力,AI得以实现对未来的预测,这本身就是一项非凡的成就。想象一下,面对气候变化这样涉及无数变量、时间跨度长达数十甚至上百年的复杂系统,AI能够从中发现人类难以察觉的模式和关联,为我们制定更有效的应对策略提供数据支撑。
黄仁勋认为,AI的这种能力使其在能源和气候领域大有可为。无论是优化能源生产、预测极端天气事件,还是加速新材料的研发以提高能源效率,AI都能通过深度分析海量数据,提供前所未有的洞察和解决方案。这种超越人类认知极限的数据处理和预测能力,是AI成为应对全球性挑战关键工具的基础。
二、加速计算:奠定AI革命的节能基石
在深入探讨AI的应用之前,黄仁勋特意回溯了英伟达的技术根基——加速计算。他解释道,英伟达大约在二三十年前就开始研发这种新的计算范式,其核心目标在于大幅降低计算所需的能耗。他提出了一个关键观点:提升计算性能的根本途径在于降低单位计算的能耗。因为在一个给定的能耗预算下,可用的晶体管数量随着时间推移不断增加,只有降低每个计算步骤的能耗,才能在总体预算内完成更多的计算,从而获得更高的性能。
黄仁勋指出,正是加速计算带来的性能巨大飞跃和能耗显著降低,才使得机器学习这种让计算机自主从数据中学习的新型计算方式成为可能。可以说,加速计算对能耗的极致压缩,是催生现代AI革命的底层技术推手。没有这种计算效率的提升,训练今天动辄拥有数万亿参数的复杂AI模型将是难以想象的。这一背景介绍,为后续讨论AI能耗问题奠定了基础,强调了英伟达从创立之初就将“能效”置于核心地位。
三、AI的“双面人生”:训练与推理的能耗分野
谈及AI的能耗问题,黄仁勋引入了一个核心概念,即将AI的生命周期划分为两个主要阶段:学习(或称训练,Training)阶段和应用(或称推理,Inference)阶段。他用了一个生动的比喻:这就像人类需要花费二三十年时间上学接受“预训练”(pre-training),之后才能将所学知识应用于实际工作和生活(推理)。
他承认,AI模型的训练阶段确实需要消耗大量能源。这个阶段需要收集海量数据(如视频、遥测数据、文本等),并使用大型计算机集群通过迭代计算,让模型学习数据中的特征并掌握预测能力。这正是当前公众对AI能耗担忧的主要来源。
然而,黄仁勋紧接着强调,训练模型并非AI的最终目的,真正的价值在于使用模型进行推理。更重要的是,训练完成的大模型(通常参数量巨大,达到万亿级别),可以被看作是一个知识渊博的“教授模型”(professormodel)。在实际应用中,我们会将这个大模型的知识“蒸馏”(distill)到许多更小的“学生模型”(student models)中。这些经过精简和优化的推理模型,体积小巧,可以部署在手机、个人电脑、自动驾驶汽车的单一芯片上。
这些小型或中型的推理模型虽然在通用性上可能不如原始大模型,并且可能更“脆弱”(brittle)、更专注于特定任务,但它们继承了大模型的关键技能,能够高效地执行被微调(fine-tuned)过的特定任务。关键在于,这些推理模型的运行能耗极低。黄仁勋对此持乐观态度,他预测未来数据中心的算力绝大部分(或许高达90%)将用于推理,而只有少数(约10%)用于训练。因此,AI在推理阶段带来的能效提升将是巨大的。
四、AI推理如何实现万倍节能?
针对当前舆论普遍关注AI推高能源需求的现象,黄仁勋提出了一个与直觉相反但至关重要的观点:从长远和应用角度看,AI有望大幅降低能源消耗。他再次强调了区分训练和推理的重要性,并用一个极具说服力的例子——AI天气预测——来阐释AI推理的节能潜力。
他介绍道,英伟达训练了一个大型AI模型来预测天气。这个模型的学习素材来源于传统的、基于物理原理的模拟模型以及真实的观测数据。这些传统的物理模拟方法本身就需要强大的超级计算机来运行,并且这些超算往往需要7x24小时不间断运行,才能预测未来几小时乃至几周的天气状况。
然而,一旦AI模型训练完成,进入推理应用阶段,情况就发生了戏剧性的变化。黄仁勋透露,使用训练好的AI模型进行天气预测,其能耗仅为传统超算方法的万分之一!这意味着,过去需要庞大超算持续运行才能完成的任务,现在可以用能耗极低的AI模型高效完成。
David Sandalow也认同这一点,指出这种新型AI天气模型比传统物理模型更节能的优势尚未被广泛理解。这项技术突破已经在太阳能和风力发电场等领域产生了实际应用,能够更准确地预测可再生能源的发电量,优化能源调度,并且有助于我们更深入地理解气候变化的未来趋势。这个例子雄辩地证明了,虽然AI训练耗能不菲,但其推理应用阶段蕴藏着巨大的节能潜力,有望在诸多计算密集型领域取代高能耗的传统方法。
五、英伟达芯动力:从精度到稀疏,持续压榨能效极限
要实现AI推理的极致能效,硬件层面的创新至关重要。黄仁勋详细阐述了英伟达如何在芯片设计上不断突破,以降低AI运算的能耗。其中一个关键策略是持续降低运算所需的数值精度(precision)。
他解释说,传统的科学计算,尤其是物理模拟,通常使用64位浮点数。这是因为物理现象涉及的数值范围(range)和精度(precision)要求极高且难以预测,64位浮点数能够覆盖从微观到宏观(例如,从厘米到星系尺度)的广阔范围,并保证足够的精度,避免计算过程中出现误差累积或数值溢出。
然而,AI模型具有一种特殊能力,即能够“聚焦”或关注于当前任务最相关的部分,并且可以通过训练学会这种聚焦。这意味着AI运算并不总是需要那么高的精度。因此,英伟达在每一代AI芯片中,都在努力探索降低数值精度的可能性。他们的第一代AI芯片使用32位浮点数,随后降至16位,再到8位,最新的芯片已经支持4位浮点数。
黄仁勋指出,每一次精度的降低,都意味着能耗的大幅减少。从最初的(假设是)64位降到现在的4位(此处原文未明确初始对比基准,但上下文暗示是从更高精度如64位或32位开始),其能耗降低的幅度是极其可观的,远不止简单的线性比例。
除了降低精度,英伟达还利用了神经网络的“稀疏性”(sparsity)特点来节能。在一个训练好的神经网络中,大部分参数(权重)的值要么是零,要么非常接近零。对于这些零或接近零的参数,在计算中实际上可以跳过,无需进行乘法运算。英伟达通过引入稀疏计算技术,使得芯片能够识别并跳过这些无效运算,从而再次显著降低能耗,可能达到几倍(例如4倍)的提升。
说到这里,我额外补充一下,其实DeepSeek的V3/R1模型就使用了低精度计算技术,混合精度训练框架,比如核心计算大部分使用FP8(8位浮点数)格式,这显著降低了内存占用和计算开销,同时保持了模型性能的高效和稳定。
六、光进铜退:硅光子与CPO技术如何为数据中心节能
除了芯片内部的优化,芯片之间以及服务器之间的连接也是数据中心能耗的重要组成部分。黄仁勋介绍了英伟达在该领域的一项前沿创新——硅光子(silicon photonics)技术及其应用,特别是“共封装光学”(Co-Packaged Optics,CPO)。
他首先解释了当前的连接方式:在短距离内(例如一个服务器机架内部),使用铜线(copper)连接是最高效、能耗最低的选择。但铜线的传输距离有限,损耗会随距离增加而急剧上升。因此,当需要连接更远距离(例如跨机架、跨数据中心)时,就必须使用光纤(optical)传输。
传统的光纤传输方式存在一个能耗瓶颈:信号需要经历多次转换。芯片输出的是电信号(electrical),需要通过一个收发器(transceiver)将其转换为光信号(optical)才能在光纤中传输。光信号传输可以达到很远的距离(数公里)。到达目的地后,光信号还需要再通过一个收发器转换回电信号,才能被接收端的芯片处理。这一系列的“电-光-电”转换过程,尤其是收发器本身,会消耗大量能量。
为了解决这个问题,英伟达通过在半导体工艺、封装技术、高速接口(SerDes)技术等多个层面积累创新,实现了CPO技术。CPO的核心思想是将光收发模块(transceiver)与计算芯片(如GPU或交换芯片)直接封装在一起,使得电信号可以直接在芯片封装层面就转换成光信号并输出。这绕过了传统方案中独立的、高功耗的板载光模块和相应的电信号链路。
黄仁勋指出,这项技术的应用将为数据中心带来巨大的节能效益,不仅能节省数百万甚至数十亿美元的成本,更能减少兆瓦级别的电力消耗。这项看似底层的连接技术创新,实际上是应对AI算力增长带来的能耗挑战的关键一环,展现了英伟达在系统级能效优化上的深度布局。
七、“杰文斯悖论”新解:AI效率提升是双刃剑?
随着AI技术效率的不断提升,一个经济学上的经典现象——杰文斯悖论(Jevons Paradox)——开始在能源政策圈引发热议。该悖论指出,技术效率的提高往往会降低使用成本,从而刺激更多的消费,最终可能导致总资源消耗不降反升。许多人担忧,即使AI本身变得更节能,其广泛应用是否会催生出更多、更新的计算需求,最终导致整体能耗不减反增?
黄仁勋坦诚地回应了这个问题,认为答案是复杂且具有两面性的。他承认,随着AI成本的下降和能效的提高,其应用确实会增加。然而,他引导听众思考:这种增加的AI计算,是在“替代”什么?
他从计算机科学的层面进行了解释,认为当前的计算模式正在经历一场从“检索型”(retrieval-based)向“生成型”(generative-based)的根本性转变。目前绝大多数的计算任务是检索型的:用户发出请求(如搜索关键词、点击链接),计算机从存储设备(硬盘、闪存)中检索预先存储好的信息(网页、图片、广告等),然后呈现给用户。这个过程涉及大量的数据读取和传输。
而生成式AI(GenerativeAI)则不同。当你向AI提问时,它不是去检索一个现成的答案,而是“即时生成”一个答案。黄仁勋以自己为例:他可以直接回答主持人的问题(生成),而不是跑回办公室查资料再拿回来让主持人自己读(检索)。虽然生成答案需要他大脑消耗能量(类比AI计算功耗),但这省去了来回奔波、查找、传输、阅读等一系列检索过程所消耗的能量。他认为,从这个角度看,生成式计算替代检索式计算,长远来看将节省大量能源。例如,未来的搜索将不再是返回一堆链接让你去阅读,而是直接给你答案。
但黄仁勋并未回避问题的另一面。他承认,生成式AI的强大能力催生了许多全新的应用场景。他以自己为例,现在每天都会利用AI进行深入研究(deep research),探索各种复杂问题。这些过去计算机无法完成的新任务,自然会消耗新的能源。
因此,未来的图景是:一方面,AI将替代旧的、效率低下的计算方式,从而节省能源;另一方面,AI的普及将激发更多创新应用,带来新的能源需求。黄仁勋希望,这些新的AI应用将创造巨大的价值,例如在生产力、制造业、机器人等领域带来革命,从而证明为其投入能源是值得的。
八、AI能源需求求解:布局“AI工厂”与优化选址
既然AI的发展,尤其是新应用和新产业的出现,将不可避免地带来能源需求的增长,那么如何满足这些需求就成了关键问题。黄仁勋就此提出了几点思考。
首先,他提出了一个重要观察:与过去的能源消耗模式不同,AI计算(尤其是训练)对地理位置的要求相对灵活。他形象地说,“AI不在乎去哪里上学”(AI doesn't care where?it?goes to school)。这意味着,可以将用于训练AI的大型数据中心,即他所称的“AI工厂”(AI Factories),建设在能源富余或成本较低的地区,而不必靠近人口密集的城市中心。这与电动汽车等应用形成了对比,电动汽车需要在用户住宅附近充电,给现有城市电网带来巨大压力。通过优化AI工厂的选址,可以更好地利用全球的能源资源,减少对紧张电网的冲击。
其次,他强调,AI不仅消耗能源,更能帮助其他行业节省能源。例如,他提到可以将AI应用于无线接入网络(RAN,RadioNetwork),以提高频谱利用效率,优化基站运行,从而降低移动通信网络的巨大能耗。这提示我们,在考虑AI自身能耗的同时,也要看到它在全局能源优化中的赋能力量。
最后,他观察到全球范围内对AI的态度已经发生了转变。几年前,人们主要关注AI数据中心的能耗问题。虽然持续提升能效仍然至关重要,但现在各国越来越认识到,AI本身就是一个全新的、潜力巨大的产业。这个产业的核心是“生产人工智能”。各国政府和企业都渴望利用AI来提升本国或本行业的竞争力,因此愿意投资能源来建设AI工厂,将其视为经济增长的新引擎。许多能源富余的国家尤其对此感兴趣,希望将能源优势转化为AI时代的经济优势。
九、“智能基础设施”的崛起
黄仁勋进一步将AI提升到了国家基础设施的战略高度。他回顾历史,指出如同水利、道路是早期社会的基础设施,电力是工业时代的基础设施,以及三十年前人们还未完全理解其重要性但如今已不可或缺的信息基础设施——互联网一样,我们正在迎来一个新的基础设施时代,那就是“智能基础设施”(Intelligence Infrastructure)。
他承认,目前“智能基础设施”的概念对许多人来说可能还比较抽象。但随着人们日常越来越多地使用ChatGPT、Gemini Pro、Perplexity等AI工具和服务,大家开始切身体会到“智能”是什么,尤其是“数字智能”(digital intelligence),以及它如何能够提供巨大的帮助。
基于这种日益增长的认知,黄仁勋观察到,全球各国政府都开始意识到拥有自主可控的智能基础设施的重要性。这种基础设施将建立在AI工厂之上,其核心产出就是AI能力。
那么,一个国家要建设自己的智能基础设施,需要哪些要素呢?黄仁勋总结为三点:
数据(Data):对于许多国家而言,其独特的智慧、知识、文化和常识(commonsense)就蕴藏在历史文献、书籍、国家图书馆等载体中。其中很多还是模拟形式存在的。因此,将这些宝贵的国家知识数字化,并用于训练本国的AI模型,是至关重要的一步。
AI技术(AI Technology):黄仁勋认为,虽然最尖端的(state-of-the-art)模型仍然掌握在少数(可能约10家)公司手中,但得益于开源社区的蓬勃发展和开放科学环境下大量的论文发表(如今计算机科学论文大部分都与AI相关),获取“足够好”的AI技术已经变得相对容易。
算力(Compute):即建设AI工厂所需的计算硬件和基础设施。
他相信,凭借这三个要素,每个国家都有能力构建自己的AI技术和智能基础设施。这番论述将AI的重要性从单纯的技术或产业层面,提升到了关乎国家未来发展和主权的战略层面。
十、AI赋能千行百业:从材料科学到数字孪生工厂
除了宏观战略层面的讨论,黄仁勋也列举了AI在能源与气候相关领域的诸多具体应用潜力,强调AI将成为推动这些领域创新的强大引擎。
首先是材料科学(Material Sciences)。他指出,材料科学的研究必须拥抱加速计算和AI。因为材料研发在很多方面类似于药物发现或数字生物学(digital biology),涉及海量的组合与排列需要探索。虽然最终仍需通过实验验证,但AI可以通过训练模型来理解分子动力学(molecular dynamics)或材料结构,从而建立起“虚拟实验室”(virtual laboratory)或“数字孪生”(digital twin)。利用AI进行大规模的虚拟筛选,可以剔除大量无效方案,聚焦于最有潜力的候选材料,从而大幅减少所需进行的物理实验次数,加速新材料的发现进程。这对于研发新型电池化学材料、高效催化剂等对能源和气候至关重要的领域意义重大。
其次是能源生产。他提到了几个例子:
风力发电场优化:利用AI建立替代模型或仿真,可以更智能地设计风电场的布局,并实时控制风机朝向,以更好地捕捉风能,减少尾流造成的湍流干扰,从而提升整体发电效率。
核聚变研究:AI可以用于模拟聚变反应堆中极其复杂的等离子体湍流(plasmaturbulence)现象。加速对这些复杂物理过程的理解,有助于我们更快地实现可控核聚变,为人类提供清洁、几乎无限的能源。
再次是能源分配与使用。虽然未在本次对话中详细展开,但前面提到过AI在优化电网运行、预测电网故障等方面的潜力。
最后,他特别强调了数字孪生(Digital Twins)在制造业的应用。像富士康(Foxconn)这样的大型电子制造商,以及台积电(TSMC)、三星(Samsung)等半导体巨头,都在与英伟达合作创建工厂的数字孪生模型。通过在虚拟世界中模拟和优化工厂的规划、布局、运营流程,可以在实际建厂或运营前就发现问题、找到最佳方案。
这种“AI工厂(训练模型)-数字孪生(模拟优化)-实体工厂(节能运行)-反馈回AI工厂(持续改进)”的闭环,将彻底改变未来的制造业。考虑到制造业是全球能源消耗的大户,通过数字孪生技术哪怕实现几个百分点的能效提升,其累积的节能效果也将是惊人的。
黄仁勋总结道,AI应用的潜力是无穷无尽的,它将渗透到能源价值链的每一个环节,并通过提高效率、加速创新来帮助我们应对能源和气候挑战。
十一、皮衣教主的管理哲学:“Top5Things”的智慧
除了技术和战略层面的探讨,主持人也好奇地问及了黄仁勋在英伟达的管理实践,特别是他著名的“Top5Things”(T5T,五件事)管理工具。
黄仁勋解释说,“Top5Things”并非什么复杂的系统,它的核心理念极其简单:鼓励员工(以及他自己)随时记录下头脑中最重要的五件事。
这五件事可以包罗万象,不拘一格:可能是你最近喜欢的餐厅,当前正在处理的工作,最近观察到的一个重要现象,一个潜在的机会,一个令人担忧的威胁,甚至只是一个让你感到好奇、但还不完全理解的事情。
之所以限定为“五件”,是为了让这个过程足够轻量化,既方便员工快速记录,也方便管理者(包括他自己)阅读。他设想,如果公司里的每一位员工都这样做,并将他们的“Top5Things”分享出来(不一定直接发给他,可以发给任何人),那么整个公司就如同部署了一个庞大的传感器网络。
这些来自“边缘”(即一线员工)的“传感器信号”(即Top5Things),随着时间的推移不断汇集。黄仁勋本人并不需要每周都阅读每个人的报告,报告也不需要每周都提交,但只要信息能够持续、零星地流动起来,他就能通过长期观察,自然地从中识别出重要的模式和趋势。
他将这种做法与传统的层级汇报制度进行了对比。在传统模式下,信息从员工逐级上传,经过层层过滤和汇总,等最终到达高层管理者手中时,往往已经失去了很多细节和时效性,甚至“空无一物”。而“Top5Things”旨在创建一个扁平化的信息系统,让他能够以可承受的成本,直接感知到来自组织各个角落的、相对原始的信号。
这个看似简单的管理工具,实际上体现了黄仁勋早在公司创立之初(三十三年前)就具备的分布式信息处理和模式识别的思维方式。他从中获益匪浅。
十二、AI融入日常:黄仁勋与英伟达的实践
当被问及个人以及公司如何在日常工作中使用AI时,黄仁勋分享了几个关键的应用场景。
首先,他再次强调了深度研究(Deep Research)。对他而言,AI不仅仅是信息检索工具,更像是一位私人导师。传统的研究工具返回的是静态文档,而AI进行深度研究后,虽然也能生成报告,但其本身变成了一个“活的”专家。这个AI因为它刚刚深入研究了某个特定主题,所以变得对该主题极其了解。黄仁勋可以持续地与这个“AI专家”互动,深入探讨问题。这种动态的、交互式的研究方式是他最喜欢的AI用法之一。
其次,在英伟达内部,AI已经深度融入了工程研发流程。无论是软件开发还是芯片设计,现在公司里每一位工程师都在使用AI助手。作为一家技术公司,英伟达优先将AI应用于自身最核心的业务领域。如今,数万名工程师每天都在AI的辅助下进行编码和设计工作。黄仁勋透露,公司每天有数百万行代码是由AI生成或辅助生成的!这无疑极大地提升了研发效率和创新速度。
第三个重要领域是供应链优化(Supply Chain Optimization)。英伟达的供应链极其复杂。以其旗舰GPU产品为例,虽然核心是来自台积电(TSMC)等伙伴的几颗关键芯片,但整个GPU系统(或一个包含GPU的服务器机架)实际上由数万个,甚至可能数百万个零部件组成,这些零部件来自全球各地的供应商。一个服务器机架的重量可达一吨半。管理如此庞大复杂的供应链,是一个远超人类认知能力的组合优化难题。因此,英伟达正在积极探索利用AI来优化库存管理、物流规划、需求预测等供应链环节。
这三个例子展示了AI在英伟达内部已经从概念走向实践,而且涵盖了从高管决策到一线研发再到核心运营的方方面面。
十三、黄仁勋的书单推荐
在访谈的最后环节,按照播客惯例,主持人邀请黄仁勋推荐三本对他有影响的书籍、报告或文章,主题不限,新旧皆可。
?
黄仁勋首先提到了在他三十多岁时对他影响深远的书籍——克莱顿·克里斯坦森(Clay Christensen)关于“创新者窘境”(Innovator's Dilemma)的系列著作。他称赞这些书写得非常好,思考深刻,并表达了对已故的克里斯坦森教授的怀念,认为其思想对科技行业产生了巨大影响。
接着,他推荐了大约十年前阅读并非常喜欢的书——尤瓦尔·赫拉利(YuvalHarari)的《人类简史》(Sapiens)。他认为这本书写得也很棒(reallywelldone),并且可能是他读过的覆盖人类历史跨度最大的著作之一,非常有趣。
最后,他谈到了近期阅读的一些书籍,并列举了几本,包括:克里斯·米勒(Chris Miller)的《芯片战争》(Chip War),格雷厄姆·艾利森(Graham Allison)的《注定一战?》(Destined for War),甚至是《孙子兵法》。他半开玩笑地感慨,最近读的书似乎都以“战争”(war)结尾。
但他随即也强调,阅读这些书并非是为了鼓吹冲突,反而是为了了解导致紧张局势和战争的原因。他特别强调,《孙子兵法》的教诲核心在于如何“避免”战争,而不是将对手逼到极限。这些著作其实在提醒我们,如何在竞争的同时进行合作,防止冲突。他认为,我们正处在一个风云变幻(interesting times)的时代,所以阅读书籍的性质似乎也在随之变化。