“人工智能”
围绕 ChatGPT 的道德恐慌引发了混淆,因为人们经常将其称为“人工智能”。ChatGPT 是否可以被正确描述为人工智能?我们是否应该这样称呼它?麻省理工学院人工智能实验室的 Sussman 教授有力地论证了我们不应该这么做。
通常,“智能”意味着具备某种知识和理解,至少是关于某些领域的知识和理解。真正的人工智能应该拥有某种知识和理解。而通用人工智能应该能够理解和掌握各种领域的知识;这种通用人工智能尚未存在,但我们确实拥有在某些有限领域内具备知识和理解能力的人工智能系统。
相比之下,ChatGPT 既没有知识也没有理解。它的输出仅仅是流畅的胡言乱语。它对现实的任何陈述或暗示都是虚构的(除非“虚构”一词本身暗示了超出该系统实际能力的理解)。试图从 ChatGPT 的输出中寻找任何现实问题的正确答案是一种愚蠢的行为,许多人已经深受其害。
这并不是实现细节的问题,而是由于这些系统采用的基本方法存在的内在局限性。
以下是我们建议针对基于训练神经网络的系统使用的术语:
- “人工智能” 适用于在某个领域内具备知识和理解能力的系统,无论该领域是大是小。
- “胡说八道生成器” 适用于大型语言模型(LLM),如 ChatGPT,它们生成听起来流畅的文字,看似在陈述有关世界的内容,但实际上并不语义理解这些文字。这一结论得到了 Hicks 等人的论文《ChatGPT 是胡说八道》(2024 年)支持。原文链接。
- “生成系统” 适用于生成艺术作品的系统,对于这些作品来说,“真”与“假”并不适用。
以上三类系统大多是用“机器学习系统”实现的。这意味着它们处理由许多数值组成的数据,并根据“训练数据”调整这些数值。机器学习系统可以是胡说八道生成器、生成系统或人工智能。
如今,大多数机器学习系统是作为“神经网络系统”(NNS)实现的,这意味着它们通过模拟“神经元”网络工作——即对真实神经细胞的高度简化模型。然而,还有其他类型的机器学习方法,其工作原理有所不同。
有一个特定术语用于描述生成符合语法和用词合理的文本输出的神经网络系统:“大型语言模型”(LLM)。这些系统完全无法理解其文本输出的含义,因此它们总是胡说八道生成器,而非人工智能。
一些使用机器学习识别数据中特定重要模式的系统可以反映出真实的知识(即使不完全准确)——例如,判断某种组织的图像是否显示某种医学状况,是否是捕食蜜蜂的亚洲大黄蜂,或某幼儿是否可能存在自闭症风险。科学家通过将系统的判断与实验测试结果进行比较来验证其输出。这证明这些系统可以被称为“人工智能”。同样地,反社会媒体公司用来决定向用户显示或推荐内容的系统也算作人工智能,因为公司验证了这些系统确实理解如何提高“用户参与度”,尽管这种对用户的操控可能对个人和社会有害。
企业和政府使用类似的系统来评估如何对待潜在客户或被指控的人员。这些评估结果通常验证不充分,可能导致系统性不公。但由于它声称具有理解能力,至少可以被视为尝试中的人工智能。
如上述例子所示,人工智能可能出错、存在系统性偏见或表现不佳,就像自然智能一样。在这里,我们关注的是具体实例是否符合这一术语,而不是它们是好是坏。
还有一些人工智能系统利用数学问题求解,通过机器学习探索可能解的空间以找到有效解。它们被认为是人工智能,因为它们通过严格的数学方法验证候选解的有效性。
当胡说八道生成器输出看似陈述事实的文本,但描述了不存在的人、地点、事物或从未发生的事件时,人们常将这些陈述称为“幻觉”或说系统“编造了”它们。这种说法传播了一种概念上的混淆,因为它假定系统对其输出的意义有某种理解,并且这种理解在某些具体情况下是错误的。
这种假定是错误的:这些系统完全没有任何语义理解。
Via Words to Avoid (or Use with Care) Because They Are Loaded or Confusing - GNU Project - Free Software Foundation, translated by ChatGPT.