逻辑和语义网
如果一个人的最终目标是强人工智能,逻辑似乎是一种超级不错的知识表示。因为逻辑普遍适用。原则上来说,相同的表示(相同的逻辑符号主义)可以用来表示视觉、学习和语言等,当然也适用于由此产生的任意集成。此外,它提供了很有说服力的定理证明方法,以处理信息。
所以,早期人工智能中的知识表示方式首选谓词演算。这种逻辑比命题逻辑的表示能力更强,因为它可以“进入句内”来表达句子的意思。以“这个商店有一顶适合所有人的帽子”这个句子为例。谓词演算可以清楚区分这句话三种可能的意思:“对于每个人来说,这家商店有一顶适合他们的帽子”; “在这家商店有一顶尺寸可调的帽子,适合任何人”;和“在这个商店有一顶帽子(假定被折起来)足够大,可以同时适合所有人。”
对许多人工智能研究人员来说,谓词逻辑仍然是首选。例如,CYC的框架就是基于谓词逻辑。组合语义学中的自然语言处理(NLP)表示也同样如此(见第3章)。我们延伸谓词逻辑来表示时间、原因或职责/道德。当然,这取决于某人已经提出了这些形式的模态逻辑,但这并非易事。
然而,逻辑也有缺点。
第一个缺点包含组合爆炸。人工智能中广泛使用的逻辑定理证明方法是消解法。利用这种方法得出的结论可能本身是正确的,但它与目标结论并不相关。启发法用来指导和限制结论,并决定何时停止证明(魔法师的弟子做不到)。但这些方法也并非万无一失。
第二个缺点是消解定理证明,假定非—非—X就意味着X。这个观点大家并不陌生:反证法就是首先假设某命题不成立(对原命题的结论进行否定),然后推理出明显矛盾的结果,从而下结论说假设不成立,原命题得证。如果被推理的域被完全理解,那么这在逻辑上是正确的。但是,使用内置消解程序(例如许多专家系统)的用户通常假定找不出矛盾来,这就意味着不存在矛盾,即所谓的“失败则否定”。这往往是一个错误。在现实生活中,证明某事是假,和不能证明它是真完全不是一回事(如在猜测伴侣是否欺骗你的时候)。因为还有许多不知道的证据(潜在假设)。
第三个缺点是,在经典(“单调推理”)逻辑中,一旦某事被证明是真,那它永远是真。在现实中,情况并不总是如此。我们可以有充分理由认为X为真(也许它是一个缺省赋值,甚至是通过仔细论证或从有说服力的证据中得出的结论),但后来可能会发现X不再是真,或者从最开始就不是真。如果是这样,我们也必须相应地改变自己的认知。对于基于逻辑的知识表示,这说起来容易做起来难。许多研究者受到麦卡锡的启发,已经试图提出可以容忍不断变化的真值的“非单调推理”逻辑。类似地,人们已经定义了各种“模糊”逻辑,其中的语句能够被标记为可能/不可能或者未知,而不是真/假。即便如此,防止单调性的可靠方法仍未找到。
有些人工智能专家在研究基于逻辑的知识表示法时,基本上都是越来越想找到知识或意义的本元。但他们不是先驱:麦卡锡和海斯(Hayes)在其合著的论文《从人工智能立场中衍生出来的某些哲学问题》(Some Philosophical Problems from an AI Standpoint)中就在做这件事。大家对这篇文章讨论的很多问题都不陌生:从自由意志到非真实条件句。这些问题包含宇宙的基本本体论:状态、事件、属性、变化、动作……什么?
除非某人在内心深处就笃信形而上学(这种激情十分罕见),不然为什么要关心本体这种东西?为什么现在对这些神秘问题的探讨越来越多?很显然,如果试图设计强人工智能,就必须考虑知识表示能够使用何种本体。我们在设计语义网的过程中也要考虑这些问题。
语义网与万维网不同。自20世纪90年代以来,我们就有了万维网。语义网甚至不是技术发展的最新水平:它是未来的技术发展水平。如果存在语义网,而且当它真的存在时,机器驱动的联想搜索将通过机器的理解力得到改进和补充。这样一来,应用程序和浏览器就可以访问互联网上的任何信息,并在推理问题的过程中合理整合不同内容。这项艰巨任务由蒂姆·伯纳斯-李爵士(Sir Tim Berners-Lee)指导,这项任务甚至可以说是苛求,不仅需要在硬件和通信基础设施方面取得巨大的工程进步,还需要网络漫游程序加深理解它们正在做什么。
谷歌、一般的NLP程序等这类搜索引擎通常可以找到单词或文本之间的关联,但不存在理解力。这里不是指哲学上的理解力(见第6章),而是指一种经验性的东西,是实现强人工智能的另一个障碍。尽管有一些例子听起来很诱人,但终究是骗人的,如IBM公司的沃森、Siri和机器翻译(都将在第3章中讨论),今天的计算机并不知道它们“读”或“说”的东西是什么意思。
缺乏理解力的体现之一是各程序之间不能彼此交流(相互学习),因为程序不同,知识表示形式或基本本体也不同。如果语义网研究人员可以找到一种通用的本体论,那么让机器理解其接收的东西可能不再只是空想。因此,在20世纪60年代,人工智能领域提出的形而上学的问题,如今因其实用性而变得非常重要。