2018 (427)
2020 (127)
2022 (141)
2024 (99)
AI证明是件不错的工具,尤其写程序,写现代诗歌不敢恭维,就这样了,再说点啥好呢?对了,马斯克说人的大脑功率是20瓦,比我猜想的要高一些,人们都说现在的AI大语言模型训练起来极耗能,譬如Chat GPT-4 的训练耗能看介绍在10到50兆瓦小时GWh,相当于两千到一万户悉尼人家的全年用电量, 取40GWh好了。于是有了点好奇,这AI耗能和人脑比究竟如何?
估算一下不难,gpt-4的训练量据报是数万亿字(有精确数字的请告知),算十万亿吧(10,000,000,000,000)。人类学习以读书为例比较易算,一本英文书大概5万到10万字,取中值7万5,算一个月读一本,一年12本书是900,000字,一个人几乎一生都在学习,算10岁学到70岁,两头效率低,平均一年算500,000字吧,一生60年有效学习总计3千万字(30,000,000)。
如此,gpt-4的训练量大约相当于33万人一生的学习量。
现在来算这么些人学习的能耗,假设一个人一天花7小时学习,一年学习300天,那么60年学习的耗能是
60年×300天×7小时×0.02千瓦= 2,520千瓦小时(kWh),看起来不赖,才一户人家半年的能耗 。
然而,333万人的学习总耗就不低了,那是839,160,000kWh,也就是839兆瓦小时(GWh), 与gpt-4的40GWh比,要高21倍。
所以即使拿今天如gpt这样的高能耗AI模型来说,其单位能耗的学校效率也要比人类高21倍,而deepseek的能耗据说只是gpt的几十分子一。
希望没算得太离谱。