二 形式逻辑的“五宗罪”
概而言之,英美分析哲学的主要学术训练方式,是建立在对肇始于弗雷格(Gottlob Frege,1848-1925)的现代逻辑(一阶谓词逻辑与命题逻辑)的尊重之上的。因此,分析哲学所说的“分析”,大约就可以等于“运用现代逻辑的工具进行分析”。但这样的学术训练,显然是没有办法应对当前基于深度学习的人工智能发展现状的,因为深度学习技术本身是一种复杂的人工神经元网络技术,其所依赖的数学模型早就不是命题式的符号推演逻辑所能够涵盖的(这个问题下一讲还要详谈)。另外,即使对于基于符号表征与明述规则的符号AI而言,主流分析哲学的训练所能够提供的思想支持,也未必始终是积极的。毋宁说,基于现代逻辑的主流分析哲学的“理想化”讨论方式,往往会忽略智能系统的运作效率问题,而这一点又会倒逼着天然具有工程学面相的人工智能研究通过某些“特设化”(ad hoc)的修正来部分弥补相关的缺憾。然而,这种零敲碎打的修补方式显然是很难达到真正的普遍性的,遑论为具有多重用途的通用人工智能设备的设计铺展可行的路线图。
但麻烦的是,分析哲学的思维方式所蕴涵的风险,长久以来并没有被普遍地意识到。换言之,正因为分析哲学的研究方法是偏重逻辑分析的,而现代数理逻辑又恰恰构成了符号AI的基础,所以,在很多人看来,分析哲学的逻辑分析方法,本就能与AI构成某种应和关系。这二者之间的此类关系,也被逻辑学家托马森(Richmond Thomason)称为“哲学逻辑”(philosophical logic)与“人工智能中的逻辑”(Logic in AI)之间的关系。[13]所谓“人工智能中的逻辑”,含义自然是指在人工智能建模中所运用的逻辑,而所谓“哲学逻辑”,则是指在哲学研究中所运用的逻辑。托马森注意到,若以人工智能专家麦卡锡(John McCarthy)与海耶斯(Patrick Hayes)合写的、并发表于1969年的经典论文《从人工智能的角度审视一些哲学问题》[14]为典型文本,该文58个文献引用中,有35个是关于哲学逻辑的研究文献的,与计算机学科直接相关的只有17个。从这个角度看,至少就20世纪60-70年代的情况而言,哲学逻辑的确是人工智能逻辑的“秩序输出者”。
不过,也正如刚才我所指出的,哲学逻辑所扮演的这种“秩序输出者”的角色,可能反而恰恰将AI的发展引上了歧路。严格地说,目前在符号AI中所运用的哲学逻辑工具,均是弗雷格式的一阶谓词逻辑的变种。这种逻辑的缺陷有五个:其一是无法自我检查其所处理的经验性命题自身的真假,其二是真值与内涵的剥离,其三是“极化思维”,其四是反心理直觉,其五是不考虑信息的贮藏空间的局限问题。而这五个特点在原则上就使得此类哲学逻辑与“智能”一词在心理学语境中的本质规定性产生了难以调和的冲突。下面笔者就来详细解释这一判断。
关于这种逻辑的第一个缺陷,我们在前文讨论波音737MAX8的机载AI姿态调整系统时就已有所触及。从哲学角度看,这一缺陷其实已经牵涉到休谟所提到的两种知识的区分,即“观念的知识”与“事实的知识”之间的分别。具体而言,前者是指观念之间的纯粹的逻辑关系,譬如“如果攻角传感器输入的数据是A类型的话,那么飞机的姿态就应当被调整到B类型”。在此类知识中,我们并没有看到对于外部经验事实的描述,譬如关于目前飞机的飞行姿态的真实信息。毋宁说,“如果……那么……”这样的句型所表达的乃是对一条规则的陈述,而不是对规则所涉及的事实的呈报。因此,它甚至谈不上“真假”,因为对于规则的适当评价词乃是“合理”与“不合理”。与之对比,“这架波音737MAX8飞机的攻角传感器发生故障了”这句话则是所谓的“事实的知识”的示例,因为它的确对世界中发生的事态有所呈报,而且这样的呈报是谈得上“真假”的。不难想见,在真实的智能体的判断活动中,这两类知识都是需要起到作用的,而且这两类知识之间也很难彼此还原(因为从规则的“应然”中我们是推不出关于事实的“实然”的,反之亦然)。但很明显的是,形式逻辑研究乃是一种在规则层面上起效的规范设计活动,与事实无关。因此,基于逻辑思维的符号AI研究就会面临着“经验事实输入不足”的麻烦。而为了在AI设计中克服这个麻烦,唯一的亡羊补牢的办法,就是预先假定某些经验事实在推理系统中起到了几何学公理的作用,而推理系统也只能在预设这些公理为真的前提下进行运作。然而,被冒充为几何学公理的经验事实毕竟不是几何学公理——譬如,在欧氏几何系统中,设想“两点之间最短的为直线”为假乃是荒谬的,但就真实的航空器运作情况而言,设想攻角传感器给出的数据有问题,却一点也不荒谬。换言之,在经验事实的易变性、混杂性和逻辑王国的永恒性与条理性之间,我们分明看到了一条楚河汉界,而对于真实的智能体(也就是人类)来说,他们本是能熟稔地在这界限的两边进行有效的信息交换的。与之对比,基于逻辑的符号AI减少这条界限的宽度的方法却是掩耳盗铃的:此路数的研究者并不试图改造逻辑来使得其更具有流动性,却试图将经验世界人为地加以固化,以便削足适履地迎合自身高度僵化的逻辑的要求。而他们之所以这么做,乃是因为他们已经预先肯定了现代逻辑工具的不可置疑性。从某种意义上说,这种预设恰恰构成了符号AI的某种“原罪”,并使得余下的“四宗罪”也不得不从中被导出。
下面,我们就来解释现代逻辑的“第二宗罪”:真值与内涵的剥离。按照弗雷格的逻辑哲学思想,一个语言表达式均有“意义”(sense)与“指称”(reference)。[15]所谓“意义”,乃是表达式的使用者使用表达式以便指涉相关对象的方式,其数学意义类似于函数结构;而所谓“指称”,就是指那被指涉到的对象,其数学意义类似于函数的应变元的值。举例来说,就“曹操”这样的名词表达式而言,“曹操”与“曹孟德”这两种意义,就分别构成了用来指涉那个相关历史人物的两种不同的指涉方式,而那个叫“曹操”的人则构成了两种指涉方式所共同涉及的那个“对象”,即“指称”。弗雷格进一步将他的这个分析模型运用于命题层面的语言表达式。比如,就“曹操是曹丕的父亲”这一命题而言,它的意义就是指这个命题所表达的意思,而其指称就是指其所承载的真值。需要注意的是,在典型的现代命题逻辑的操作方式之中,弗雷格与后弗雷格的主流逻辑学家是将注意力放到命题的“真值”而不是思想之上的,因为所谓“真值表”(truth-table)的运作,就是以原子命题的真值为输入,来计算复合命题的真值的。考虑到真值自身的贫乏性(即只有“真”“假”两个选项)与命题的思想的丰富性之间的张力,上面这种基于真值的逻辑操作,就不得不使得相关命题的语义学与语用学背景被全面忽视。这种思维方式带给AI的种种麻烦,我们在后文中还将看到。
我们再来讨论一下形式逻辑的“第三宗罪”:极化思维。“极化思维”是指:现代逻辑的语义刻画往往会着重于考虑那些“边界明晰”的极端情况,而不太会去考虑语义模糊的“灰色地带”——尽管日常生活的表述显然往往处在这些灰色地带。一个具体而微的例子,便是对于“张三有钱”这句的刻画。对于这句话的真值条件的现代逻辑表述是:
不难看出,按照这样的真值条件刻画,如果世界上有一分钱,且这钱是属于张三的,则“张三有钱”这话也就是真的了。但几乎所有的有日常语用直觉的人都能够看出,“张三有钱”的真正含义是“张三的财富超过了其所在社会的一般水平”。据此,倘若张三只有一分钱的话,他显然离这个标准还非常遥远。很明显,主流的哲学逻辑所提供的“非黑即白”的极化思维方式,是难以应对我们的这种常识的。
然后,我们再来看形式逻辑的“第四宗罪”:反心理直觉。很明显,在上面的案例中,我们已经看到现代哲学逻辑的极化思维在处理日常直觉之时的无力感。这种无力感可以在更多的案例中得到验证,比如所谓的“四卡问题”(或称之为“华生选择难题”)[16]——在这个问题中,我们清楚地发现,心理学被试并不是按照现代哲学逻辑所提到的“蕴涵关系”的形式要求来进行逻辑推理的。对于该案例的详细解释如下(下面将涉及一些心理学实验的细节,请读者耐心阅读):
实验者告诉被试者,存在着这样一条心理学假设需要验证:“受迫害妄想症”患者在画人脸时,会把眼睛这部分画得比较大。现在被试者的任务便是从经验材料出发,证实或者证伪这条假设。不难想见,这样的经验材料应当具有这样的形式:它一方面得说明了病患本身是不是受迫害妄想症患者,另一方面则又得说明他画出的人脸是不是具有一双超大的眼睛。为了简化现在的讨论,我们不妨再设想关于每个病人的档案都被做成了一张双面卡片:一面是对其所患精神疾病的文字诊断,一面则是其所画的人脸的图片。所有这些卡片都被堆放到桌面上——而且,只要被试者不翻动卡片,他当然是不可能知道卡片背面的信息的。现在假设在桌子上有四张卡片:
卡片一:文字说明朝上,上面写着:“本病患的确患有被迫害妄想症”。
卡片二:文字说明朝上,上面写着:“本病患没有患有被迫害妄想症”。
卡片三:图画朝上,其中的人脸上的眼睛大得夸张。
卡片四:图画朝上,其中的人脸上的眼睛尺寸正常。
现在被试者被交付了这样的任务:要求翻看这些卡片的另一面,以便检测“受迫害妄想症患者在画人脸时,会把眼睛这部分画得比较大”这条假设的真伪。但是,被翻看的卡片的数量必须控制在最低限度,以免被试者翻开所有卡片的另一面(不难想见,若所有的卡片都被允许翻看的话,那么这项任务就会因为难度显得过低而失去意义)。那么,根据真实的实验结果,被试者一般会翻转哪些卡片呢?
相关的结果是:几乎所有的被试者都去翻看了第一张卡片。这有力地说明了几乎所有人都认为,知道“本病患的确患有被迫害妄想症”这张卡片背后的人脸是否有一双超大的眼睛,对于检测“受迫害妄想症患者在画人脸时,会把眼睛这部分画得比较大”这条假设的真伪来说,具有至关重要的意义。不过,除此之外,也有不少人翻看了第三张卡片,还有极少的人用到了第二张卡片。耐人寻味的是,几乎无人对第四张卡片感兴趣。
那么,从形式逻辑的角度看,对于这个问题的正确解答应当是什么呢?是“第一张和第四张都必须被翻看”。这也就是说,几乎没有人完全答对这道题。
那么,为何上述答案被认为是正解呢?简单的逻辑分析就能够告诉我们其中的缘由。不难发现,“受迫害妄想症患者在画人脸时,会把眼睛这部分画得比较大”这个假设在实质上具有“如果……那么……”的形式,而按照现代逻辑的看法,“如果……那么……”可以被简化为“实质蕴涵关系”。结合我们在这里所讨论的案例,对于该关系的“真值表”刻画如下:
表2-1 对于“华生选择问题”的真值表刻画
仔细观察这个真值表,我们就不难发现,若被检测的假设是真的,那么卡片的分布情况就有三种情况:
(1)“卡片一”的背面是“卡片三”。这等价于:“卡片三”的背面是“卡片一”。
(2)“卡片二”的背面是“卡片三”。这等价于:“卡片三”的背面是“卡片二”。
(3)“卡片二”的背面是“卡片四”。这等价于:“卡片四”的背面是“卡片二”。
而若被检测的假设是假的,那么卡片的分布情况就只有一种:
(4)“卡片一”的背面是“卡片四”。这等价于:“卡片四”的背面是“卡片一”。
很显然,使得被检测假设成真的情况很丰富,而使得其成假的情况则相对简单。为了最大限度地缩减检验假设时付出的时间以及精力损耗,其实被试者更应当去检测上述第四种情况是否成立。如果成立,那么被检测的假设就肯定是假的;若不成立,则它就是真的(这一点又是由“排中律”保证的:若你发现一个假设非假,那么你就可以自动推出它是真的)。在这种情况下,被试者自然就只需要去翻看“卡片一”的背面是不是“卡片四”,以及“卡片四”的背面是不是“卡片一”了。
但有趣的是,只要“社会契约”的内容被注入了心理学检测的题目,那么,由此变得更关注自身在契约中的利益的被试,就会更加严格地按照现代哲学逻辑的要求,全面检查逻辑推理的有效性。譬如如下改写形式:[17]
假设你是一个阿尔卑斯登山俱乐部的成员,而你的任务是检测俱乐部的下述规矩是否已经得到了所有人的遵守:“如果任何一个俱乐部成员要在山上过夜的话,那么,他就得随身带上过夜的柴火(以防止后来的俱乐部成员无柴可用)。”按照华生的卡片测验的模式,实验者将“在山上过夜为真”写在卡片一上,将“在山上过夜为假”写在卡片二上,将“带柴火上山为真”写在卡片三上,并将“带柴火上山为假”写在卡片四上。这四张卡片之间的真值关系如下:
表2-2 对于“华生选择问题”的社会契约化改写及其真值表刻画
现在的任务是:如果要确定上述社会契约规则是否得到遵守,那么,你应当翻看哪些卡片呢(和华生的原始实验设计相应,在此,被翻动的卡片数依然需要被限制到最低限度)?
实验的结果是非常耐人寻味的。多达89%的被试者都试图翻看“卡片一”的背面是不是“卡片四”——也就是说,多达89%的被试者都很清楚,只要我们确定了“某甲上了山,却未带柴火”这种可能性发生了,那么被讨论的社会契约就没有被普遍地遵守。这就说明,在处理社会契约领域内的假设性命题内容时,人类的心智系统会特别敏感于契约被背叛的情形,而在处理与社会规范无关的纯粹描述性的命题内容时,人类的心智系统却不会以同样的敏感性来面对假设被证伪的情形。
现在的问题来了:为何在一个问题提出方式中,被试不那么尊重逻辑,而在另一个与之在逻辑上等价的问题提出方式之中,被试却变得尊重逻辑呢?很显然,对于这个问题,逻辑本身是无法提供解答的,因为我们说过了,这两个问题的提出方式,在逻辑形式上是彼此一致的,而仅仅在经验内容方面彼此不同。因此,合理的解释便是:在第二个案例中被试对于现代逻辑的尊重,并不是由逻辑形式本身所激发的,而是由逻辑形式所涉及的经验内容所激起的。这也就是说,命题内容与相关经济利益之间的关联所引发的心理联想,往往在人类主体判断推理有效性的思维过程中扮演了重要角色,而对此类角色的表征,却是现代哲学逻辑所难以胜任的。
现在我们再来剖析现代逻辑的“第五宗罪”:对于推理活动所面临的资源约束的忽略。在分析哲学的视野中,对于哲学逻辑所从事的推理的最重要的评价词乃是“有效性”(validity),而不是“经济性”(econ-omy)或是“可行性”(feasibility)。也就是说,主流的分析哲学家往往不考虑完成一个论证所需要的推理步骤的数量问题,以及相关的心理学、生物学成本问题。但无论在认知科学还是在人工智能的研究之中,这种考量都占据了非常核心的地位,因为缺乏效率的认知机器,既很难被演化的自然进程所青睐,也难以被转换为具有工程学价值的产品。而这两种评价模式之间的矛盾,在所谓的“框架问题”里得到了最鲜明的体现。所谓“框架问题”,非常粗略地看,即指人工智能系统在确定一个前提性事件(如“桌球滚动”)之后,如何判定哪些事件(如“滚动的桌球碰触到了另外一个桌球”“房间的气温下降”等)是与之相关或不相关的。这显然要求相关系统对世界中各个事物之间的因果关系有一个预先的把握。从纯粹的哲学逻辑的角度看,这一要求本身并不构成一个非常大的麻烦,因为只要为这些因果关系进行编码的公理集足够大,一个利用该公理集进行推理的形式系统就能够从中调取相关的逻辑后承。但对于AI专家来说,庞大的公理集显然会带来巨大的编程成本问题,而且如何从该公理集中及时调取合适的子集以作为推理的起点,也会带来相关的工程学难题。[18]
上述这些问题最集中的体现,便是AI专家海耶斯所提出的“朴素物理学”(Naive physics)规划。[19]“朴素物理学”实际上就是亚里士多德式的基于直观的常识物理学原则在人工智能时代的复活。那么,为何海耶斯看重的是常识物理学,而不是伽利略以后形成的经典物理学,或者是现代量子物理学呢?这是因为,从人工智能实践的立场上看,一台能够正确理解常识物理学的认知机器或许是“更有用”的。譬如,经典物理学认为,在真空中,重物与轻物在同一时间、同一高度下坠地面后,会同时坠地。但很明显的是,这种理想化的考察明显已经滤去了空气阻力的作用,而在日常生活中,空气阻力恰恰是无处不在的。在这种情况下,一台处在人类正常生活环境中的机器人,若按照经典物理学的要求去计算事物的运动状态(同时又试图使其计算结果符合日常直觉)的话,它就将不得不计算空气的浮力对于下坠事物的加速度的影响,而这样的复杂计算显然会降低其运作效率。与之相比较,一台仅仅根据“重物下坠快”这样的常识物理学原则去运作的认知机器,其给出符合常识的输出行为的速度显然也会更快。
但麻烦的是,由于受到弗雷格以降的哲学逻辑传统的束缚,海耶斯对于朴素物理学的整编,毕竟是依赖一阶谓词逻辑的技术手段的。这就导致了前面所说的“将经验事实固化为公理”“真值—内涵分离”“极化思维”“反心理直觉”与“经济性不足”这五大问题,在海耶斯的方案中难以被真正避免。毋宁说,海耶斯用来克服第二、第三与第四个问题的技术方案,无非是将更多的常识纳入其逻辑整编范围,用以勉强压住弗雷格式逻辑所内在具有的这三个顽疾(因为常识本身就自带对于“真值—内涵分离”“极化思维”“反心理直觉”这三个特征的对冲机制)——但恰恰是这种做法,使得他根本就没有办法解决前面提到的第一个问题(将经验事实固化为公理)与第四个问题(经济性不足)。具体而言,正如另一位AI专家麦克德默特(Drew McDermott)所指出的,由于人类常识的驳杂性与开放性,海耶斯对于常识的整编方案的不断扩大,必然会带来“基本谓词膨胀”的问题,由此使得系统的运作变得更迟钝,而与此同时,系统对原有知识库进行修正的成本也会变得非常之高。[20]从这个角度看,由于其所依赖的哲学逻辑工具的拖累,海耶斯的工程学规划,从一开始就注定是走不远的。
当然,AI专家对基于弗雷格逻辑的经典哲学逻辑的缺陷,也并非没有意识。实际上,不少专家都给出了针对这些逻辑的“AI特供修订版”,如在“非单调推理”(nonmonotonic reasoning)这个名目下所给出的种种努力。这里所说的“非单调推理”,当然是针对“单调推理”(mono-tonic reasoning)而言的。“单调推理”的意思是:如果你已知一些前提是能够推出某个后果的,而且,如果你的前提部分的信息量增加,那么,那些本来会推出的结论照样还是会被推出。与之相对比,“非单调推理”的意思就是指:如果你已知一些前提是能够推出某个后果的,而且,如果你的前提部分的信息量增加了,那么,那些本来会推出的结论,现在其实未必会被重新推出。很显然,与“单调推理”相比,“非单调推理”更适合用以描述一个主体对于其信念系统进行修正的过程——换言之,既然信念的修正过程往往牵涉到利用新证据调整固有信念的真值的操作,那么,其特征就更符合“非单调推理”的特征。由于信念修正的过程本身乃是智能体的信息遴选过程中的关键一环,人工智能专家在“非单调推理”这一名目下所进行的研究,自然也能够更好地惠及对于人工智能的信念修正过程的刻画。
然而,在笔者看来,对于“非单调推理”的研究固然是对“单调性推理”研究的一个有益的修正,但只要这样的研究继续受到弗雷格式逻辑思维方式的束缚,其所获得的成果也将是有限的。下面,笔者就将面以波洛克对于“奥斯卡项目”的研究为例,来说明这一点。