Scott Gu

不公正,很快会听不到真相。马尔萨斯模型及改进型和认为人口控制类似火箭控制是数学和控制理论的严重错误。现在购买力和公司盈利全靠巨额政府债务泡沫的信用杠杆放大效应支撑。指鹿为马会开启潘多拉魔盒,使制度成为笑料,毁灭文明。
正文

无人汽车、语言模型和其它人工智能达不到鼠和猫智力。通用人工智能(AGI)根本不可能

(2024-10-23 16:22:04) 下一个

机器智力的瓶颈在于缺乏对生命的理解,在于复杂逻辑和判断力上的缺陷,不在于计算力。

欧盟脑模拟计划早就如我分析那样失败了,计算机连鼠脑和猫脑都模拟不了、连鼠和猫的智力都达不到,怎么可能拥有人类对生命的理解和在此之上的思考和行动?所以计算机神经网络和生物神经网络有本质不同。而美国BRAIN Initiative项目无法研究mirror neuron现象和自由意志问题等等关键。

黏菌解决结构问题的能力显示:人工智能解决蛋白质结构问题的能力并无很高智力。结构问题非常局部、严格受限。对机器智力、生命智力和人类特有智力需作结构、系统的特征研究。

事实上根据The Guardian报道,已经有个Safe Street Rebel group,他们 realized quickly that placing a traffic cone on the hood of a self-driving car interfered with sensors and placed it in “panic mode”, rendering it immobile until a human employee could come to rescue it.

鼠或猫在类似情况下至少会想办法脱困,有些问题可以绕过去。而无人汽车只能一动不动等人解救。这是无人汽车智力达不到鼠和猫的进一步证据。以前无人汽车公司长期路试和模拟测试应该没有发现这个问题,否则为何不纠正?当然人类可以修改程序解决这一具体问题。但类似问题无法穷尽。所以,无人汽车测试和纠错方法都有严重问题。语言模型问题更多更复杂。需要新的科学逻辑和智力科学理论。

黄仁勋先生和其他人最近又投资无人汽车公司时,不知道无人汽车智力不及鼠和猫?现在还主张五年内实现通用人工智能(AGI)?Mirror neuron现象和自由意志问题又有什么后果?大学教育有问题吧!
~~~~~~~~~~~~~~~~~~~~~~~~~~~

Geoffrey Hinton教授是否对物理学研究作出过重要贡献,他的计算机神经网络理论能否mimics the brain,是否used physics to find patterns in information和是否是popular physics,以及他是否会接受这个诺贝尔物理学奖,事关科学的诚信。科学研究不能指鹿为马。

刚辞职的斯坦福大学前校长的长期学术问题和其它受压力而身败名裂的只是冰山一角。学术圈对问题和错误已熟视无睹,今年诺贝尔“物理学”奖的低级概念和逻辑错误进一步证实了这一点。同行评审是否会沦为无耻的分脏?指出重要学术错误,会受威胁。毁灭文明的不是人工智能,而是指鹿为马的人类群体。

个人计算机和智能手机市场早在萎缩,人工智能建立在明目张胆的错误和泡沫上。现在购买力和公司盈利全靠巨额政府债务的信用杠杆效应支撑。中间环节会断裂,一连串信用杠杆大泡沫迟早会破灭。台湾人口也已长期出生少于死亡。作最后裁决的是自然规律,不是人类。

到指鹿为马地步,还能维持多久?多说没用。不再介绍我的科学逻辑和智力科学新理论。

[ 打印 ]
阅读 ()评论 (0)
评论
目前还没有任何评论
登录后才可评论.