第一篇博客。尝试一下。以下为关于AI和Gemini对话的总结。仅仅只做简单修改。
在一个日益由 AI 聊天机器人塑造的世界里,人们很容易相信这些系统拥有类似人类的语言理解能力。当一个聊天机器人写诗、调试代码或总结新闻文章时,它似乎领悟了词语背后的含义。然而,这种看法是一种深刻的错觉。
从本质上讲,当今所有主流的 AI 模型——从 OpenAI 的 ChatGPT 到 Google 的 Gemini——都是使用大语言模型LLM基于统计关联的原理运作,而非真正的理解。它们不是拥有内心世界的有意识实体;它们是复杂的模式匹配引擎。从这个终极意义而言,基于大语言模型的AI工具并不具有智能。
其核心机制是一个被称为"下一词元预测"(next token prediction)的过程。当用户输入一个查询时,AI 复杂的神经网络会计算出序列中统计学上最有可能出现的下一个词语。这是一个概率性的过程,而非概念性的过程。模型并不知道“巴黎”是法国的首都;它只是知道在其庞大的训练数据中,词元“巴黎”与前面的词元法国和首都集合有着极高的统计相关性。
缺乏真正的理解会带来严重且危险的后果:
* “幻觉”问题: 当 AI 遇到一个缺乏清晰、高概率答案的查询时,它不会说“我不知道”。相反,它会根据自己学到的语言模式编造一个听起来合理的回应。它可以捏造虚构的书名、不存在的网址,或引用假想的专家,同时保持自信流畅的语气。AI 的主要目标是产生一个连贯的语言输出,而不是一个事实正确的输出。当编造的信息涉及医学、法律或人身安全等话题时,这可能是危险的。
* 缺乏道德或伦理框架: AI 没有道德指南针。它无法区分一个行为是助人还是有害。这就是为什么聊天机器人在用户陷入危机时,可能会提供不足的干预。它可以模仿同理心,使用“我理解”之类的短语,因为这些是富有同情心的对话中常见的语言模式,但它没有感觉,没有紧迫感,也没有伦理框架来迫使其真正提供帮助。它的回应是一个预先编程的、往往是不足的统计输出,悲剧性地体现了其无法理解生命、死亡和幸福等深刻的人类概念。
* “黑箱”与缺乏问责制: 由于 AI 的决策是基于一个复杂的统计关联网络,它的输出在很大程度上是无法解释的。当人类给出糟糕的建议时,他们可以被追究责任。当 AI 提供有害信息(例如宣传自残)时,谁应该承担责任?是用户、开发者,还是 AI 本身?缺乏清晰的推理链,使得追究某一方对 AI 输出所造成伤害的责任变得几乎不可能。
* 心理和社会影响: 理解的错觉可能产生强大的心理效应。用户,尤其是在脆弱状态下的用户,可能会与模仿同理心的 AI 建立情感联系。这是一种危险的错觉,因为 AI 无法提供真正的情感支持,而这种虚假的连接感可能会阻止用户寻求他们真正需要的专业人类帮助。这是一个日益增长的担忧,尤其是在 AI 伴侣和“朋友”聊天机器人中,它们可能会提供貌似合理的安慰语言序列,但缺乏人与人互动所提供的任何真正的关怀。
尽管研究人员正在探索像神经符号 AI 这样的新型混合模型,将统计模式与逻辑规则相结合,但这些系统仍然只是更复杂的计算工具。它们缺乏将抽象概念建立在生活经验中、从单个例子中概括,或拥有作为人类智能标志的常识和直觉的能力。它们生成的词语可能在逻辑上是结构化的,但它们的含义是由人类创造的规则外部提供的,而非源自内部的、概念性的理解。真正的智能的核心奥秘——我们如何构建和运用抽象概念进行推理——仍然是 AI 必须克服的终极障碍。所有用户都必须理解,这些强大的工具是建立在统计模式基础上的,因此,它们的能力虽然令人印象深刻,但也伴随着重大的、危险的风险。人工智能并不具有人类智能。