机器意识:人工智能的终极挑战
上QQ阅读APP看书,第一时间看更新

1.3 机器意识建模

有关机器意识早期研究状况,学术界已经做过了比较全面的综述(Gamez,2008;Aleksander,2009b;Taylor,2009;周昌乐,2003d,2011,2016b;游均,2018)。从具体的实现方法上看,机器意识的研究可以分为神经网络计算方法(N)、符号规则计算方法(R)和量子纠缠计算方法(Q)三种(周昌乐,2011)。我们就按照这样的方法分类,来列举和介绍一些有影响的意识机器人研究工作。

1.3.1 神经网络方法

与认知科学中的联结主义范式相对应的神经网络计算方法,是机器意识研究较早运用的一种途径(Aleksander,1996;Taylor,1997,2007;Rolls,2007)。神经网络计算方法的核心概念是“并行分布处理”,即认知是由具有各种相互联系的神经单元组成的集合,每个单元具有极为简化的人脑神经元特性。意识是从大量单一处理单元的相互作用中产生的。尽管这种神经网络方法存在一定的局限性,但由于神经网络理论和技术本身具有可实现性强的特点,起码在某些侧面(当然不是全部)可以反映意识的某些特性。正是因为神经网络这样的计算模式比较适合涌现性意识过程的计算模拟,所以许多著名学者的机器意识研究工作,特别是亚历山大的公理系统、全局工作空间理论以及海科宁的信息整合意识认知体系等的具体实现,都是建立在神经网络计算方法之上的,我们分别介绍如下。

1. 亚历山大的公理系统

英国伦敦帝国学院亚历山大教授领导的课题组长期开展机器意识的研究工作,主要给出了有关意识的公理系统及其神经表征建模实现(Aleksander,2003,2005,2007a)。亚历山大比较强调采用虚拟计算机器来进行意识建模(Aleksander,1996,2007b),涉及功能主义(functionalism)与现象主义(phenomenology)两个方面的意识机器模拟。功能主义取向导致基于传统程序设计的算法方法,现象主义取向则导致神经网络分析方法。亚历山大及其研究团队强调了机器意识的神经网络方法,认为神经网络方法,特别是数字神经动力学系统能够涉及现象体验状态的意识(Aleksander,2006,2007c)。

亚历山大认为,要拥有现象意识,系统S必须包含代表外在世界及其在系统S内部中所表现状态的机制。另外,亚历山大还认为,描述系统S的内部状态必须从S的虚拟目标角度上来表征所看待的世界。基于这样的认识,亚历山大给出了开发机器意识系统至少需要满足的如下5个公理。

公理1:主体A感受自己处在“外在”世界的中心,因此A具有描述S部分的知觉状态。公理1也称描述公理,强调系统具有感知所处外在世界与系统自身位置等要素的状态。在公理1中,A为意识主体(可以是生物、非生物,也可以是虚拟的,比如运行在主机上的软件);S是最小可感知事件的集合;知觉状态包含最小可感知事件,是S的构成元素。

公理2:主体能回忆起自己看到的“外在世界”,因此A有内在的想象状态,可以回忆S的构成部分或制造像S一样的感觉。公理2也称想象公理,意思是系统能够回忆世界的一部分或建立与部分世界关联的感觉。公理2主要基于以下事实:任何有意识的生物对想象的事件具有意识,就像真实感知到的一样。

公理3:主体选择地注意外在世界,因此A能够选择描述或想象S的哪些部分。公理3就是注意公理,强调系统能够选择世界一部分进行描绘或想象。当注意到想象的感觉时,外部注意中有关驱动行为的选择机制就会发挥作用。结果可能就是一组至关重要的定位元素位置的标记信号。

公理4:主体可以通过想象自己行为的后果来规划未来,因此A有办法控制想象状态序列来规划行动。公理4是规划公理,系统通过控制状态系列来规划行为。所谓规划是指在需求或愿望的输入控制下,或完全没有输入的情况下,在定位标记中遍历轨迹,在所有情况下,都会在若干可能的外部动作中做出选择其中一个动作的决策。

公理5:当主体规划时,情感引导其找到一个好的规划,因此A拥有附加情感状态来评估规划好的行动并决定随后的行动。公理5便是情感公理,强调系统具有情感状态,能够快速评估规划的行为并决定接续的行为。情感不仅仅是为了响应感知事件做出内部状态的被动变化,而且与感知-计划-行为有着密切联系。

亚历山大给出的上述5个公理与所要达成现象意识的心理能力相关联,比如描述、注意、想象、规划与情感都可以看作一些心理能力。亚历山大将公理整合编入一个核心体系结构,包括感知模块P(描绘感觉输入)、记忆模块M(实现非感知规划与经验回忆性思维)、情感模块E(评估“思维”)以及行为模块A(推导出最佳规划并执行)。

在这个核心体系结构中,每个模块都是一个神经状态机器,其中模块间连接传送的都是二值信号。神经状态机器可由如下形式表示:

〈Ci,Co,Cf,Ct,I,O,F,T〉n

其中,下标n表示模块索引,Ci为输入的连接模式(来自感知或者其他模块的输入),Co为输出的连接模式(系统输出或者输出到其他模块),Cf为内部反馈连接模式,Ct为决定Co和Cf状态的指导连接集合,与Ci相关联;I、O、F、T分别是Ci、Co、Cf、Ct的状态集合,随时间而变化,遵循规则:F(t>1),I(t)→F(t),O(t)。

在这个核心体系结构中,对于感知模块状态的每一次重建,在记忆/想象模块中就会产生一个相应的状态,并累积形成重建状态的序列;情感模块和行为模块不是状态描述性的,而是状态控制性的。基于这个核心体系结构,亚历山大建立了若干仿脑(brain-inspired)实现系统(Aleksander,2009b;Hussain,2009;Rao,2010,2011),基本实现了5个公理的最小要求的目标。亚历山大后期主要是对机器意识做了一些哲学层面的思考,并转向意识的信息整合理论研究(Aleksander,2011,2013,2017)。

2. 全局工作空间理论

我们再来看基于全局工作空间理论开发的各种意识神经网络模型。应该说,巴尔斯提出的全局工作空间理论在机器意识研究中有比较持久的影响。在该理论的指导下,由巴尔斯、富兰克林(Franklin)和拉玛莫西(Ramamurthy)等人组成的研究团队开展了长达20多年的机器意识研究工作,并开发完成了IDA以及LIDA认知系统(Baars,2007,2009;Franklin,2007;Ramamurthy,2012)。

IDA(Intelligent Distribution Agent)是富兰克林等人开发的一个海军派遣系统,任务是在水兵完成任务后分派新住宿。系统功能包括自然语言会话、数据库之间的相互作用、遵守海军政策,以及检查工作需求、代价与水兵工作的满意度。系统采用全局工作空间结构来完成这些功能。IDA能够产生具有意识的行为,也具有一些意识认知特性,如注意、情感与想象等。

LIDA(Learning Intelligent Distribution Agent)是在IDA早期开发的基础上发展起来的新系统。主要依据巴尔斯全局工作空间理论,采用神经网络计算方法,通过为每个软件主体建立内部认知模型来实现诸多方面的意识认知能力,如注意、情感与想象等。该系统可以区分有无意识状态、有效运用有意识状态,具备一定的内省反思能力等,并做了一些应用性扩展。不过,从机器意识的终极目标看,LIDA系统缺乏现象意识的特征,比如不具备意识主观性、感受性和统一性。

也是依据全局工作空间理论,法兰西学院教授德哈纳(Dehaene)等人给出了全局工作空间的一种神经模拟(Dehaene,2006)。德哈纳的神经网络包括输入与响应单元、全局空间神经元以及模仿全局空间活动的警觉与奖赏系统。在德哈纳的神经模拟系统中,容易的任务将由局部专门加工完成而无须全局工作空间的参与,而困难任务就不得不激活全局工作空间来完成,并使用警觉与奖赏系统来更正错误。

德哈纳提出的意识计算模型称为NWS(Neuronal Work Space),是通过提出一种意识理论来实现意识计算模型的典型。德哈纳开发的模型主要考虑三种功能现象:存在无意识的认知加工,意识加工时需要的注意机制,以及特定任务中所必需的意识。以巴尔斯全局工作空间理论为依据,通过模仿人类脑区相互作用结构来实现,主要体现神经子网之间的颉颃机制。德哈纳构造的系统具备差异性(表现不同的认知行为)、有效性(实现了部分意识功能),但缺乏明晰性(对于意识特性的界定不够清晰)。德哈纳认为觉知意识与现象意识存在根本性差异,所以有关现象意识的主观性、私密性和统一性一概不予考虑。

沙纳罕(Shanahan)在巴尔斯等人的研究成果基础上开发了一个仿脑全局工作空间模型(Shanahan,2005,2006)。沙纳罕表示,全局工作空间架构的机器人系统具有以下四个优点。首先,开发并行运作的硬件并不困难,而且这也是将全局工作空间运作在机器上的基本要求。其次,全局工作空间保证了当某个进程崩溃时系统只是少了部分功能而不会整体跟着崩溃,就如所观察到的各种脑损伤案例一样,并不影响患者的整体意识觉知,只是相关的功能有所弱化或缺失。第三,全局工作空间在添加新的进程时不需要去修改现有系统整体架构。第四,全局工作空间为产生信息处理异构样式(heterogeneous form of information processing)提供了条件,并且可以将所产生的众多意识体验对象整合在一个整体样式之中。

仿脑全局工作空间模型的底层是一个感知运动循环,完成对环境的即时运动响应;顶层是一个更高阶循环模块(联想脑区的想象能力),通过调节其突显行为来实现一阶循环行为(与世界交互作用),因此该系统能够产生意识特性相关的联想能力。由于在全局工作空间整合了意识觉知、想象和情感三方面的能力,该系统也涉及意识外部行为与认知特性。沙纳罕认为其所构建的机器人系统可以执行期望、计划等认知功能,并且通过情感来进行动作决策,因此满足亚历山大提出的全部五条公理,是一个具备意识能力的机器人系统。

沙纳罕还将其脑启发全局工作空间架构与脉冲神经元的研究相结合,提出了一种全局工作空间架构SGWA(Shanahan Global Workspace Architecture)。与早期的模型不同,该系统没有外部行为表现(Shanahan,2008)。沙纳罕认为,这样有利于在全局工作空间处理过程中支持探索各模型参数的范围,同时也有利于机器的控制过程(Shanahan,2010)。

但是,沙纳罕的模型依然没有解决全局工作空间理论的通病,即回答不了为什么痛觉、视觉、思维等意识内容各自在感受性上有所不同这个问题。究其原因,全局工作空间的系列理论都偏重于信息处理途径,因而论述的觉知结构都存在不完整的方面。全局工作空间理论根本就无法解释同质化的信息处理为何会产生异质的意识内容。

总之,由于具体结构可操作性强的优点,运用全局工作空间理论来开展有关机器意识的研究工作已经成为一种重要的发展方向,我们期待从中能够部分解决意识的计算建模问题,并具体应用到各类智能系统之中。

3. 信息整合意识认知体系

最后我们来介绍海科宁有关信息整合理论的认知系统开发工作。事实上,自托诺尼提出意识的信息整合理论以来,就有不少研究团队以信息整合理论为依据,主要采用神经网络计算方法,来开展机器意识的研究工作。在这其中,最为典型的代表就是美国海科宁教授研究团队所开展的系统性研究工作。

美国伊利诺伊大学哲学系海科宁教授的研究团队,自1999年以来主要采用联想神经网络来进行机器意识系统的构建工作(Haikonen,2003)。海科宁教授在其所提出的认知体系模型基础上,通过联想神经网络,将符号计算和亚符号计算无缝结合起来,实现了一个具备简单意识认知能力的机器人XCR-1系统(Haikonen,2011,2012)。虽然在感受性的定义和实现问题上仍没有得到很好解决,但确实实现了多种感知信息的集成,具备了一定的注意、内省反思、体验响应和可报告性等意识能力,同时还实现了情感激励机制。尽管XCR-1许多功能实现都较为简陋,但是在海科宁所界定的意识范畴内,确实具备了一定意识认知的能力。应该说海科宁所开展的机器意识研究,比较全面地体现了信息整合理论原则,是目前机器意识研究最为典范的工作之一。

海科宁认为,人类意识由关联到感受性的主观内在体验来刻画,因此建议,真正的意识机器也应该具有某种内在体验的感受性,但可以不同于人类意识感受性的表现方式(Haikonen,2009b)。为此,海科宁提出了一种类模态感受性的概念,并采用联想神经元集群来构建一种意识的认知体系结构,其中特别强调亚符号计算与符号计算固有无缝结合的联想神经处理方法。

海科宁在对意识的内心世界印象、主观体验、内省反思(introspection)、可报告性(reportability)以及自我概念(concept of self)等做了比较全面的论述后,认为意识就是一种基于感受性神经活动内在显露出来的主观现象,其主观性是无法直接测量的。因此,在现象意识和符号思维之间,存在着一条从亚符号性感受到符号性认知的鸿沟,而要跨越这条鸿沟,就需要解决如下这些基本问题。

1)亚符号感受性(sub-symbolic qualia)的机制实现问题:即关于感受(feeling)、体验(sentience)、主观经验(subjective experience)等的计算模型的构造。

2)意向对象的内部表征问题:感知对象、外部世界、内心活动等的表征及其信息整合机制的实现。

3)心理内容的内省反思机制:注意机制、元感知运动机制、元认知机制等的计算建模及其机器实现。

4)可报告性机制的实现:响应与报告,包括自言自语,在心理内容内部表征的基础上开展有关可报告性机制的机器实现研究。

5)自我觉知能力的实现问题:在本体感知系统的基础上,建立自我概念并构建相应的自我觉知系统,能够通过镜像认知实验。

6)模仿学习能力的实现:区分自我与所处世界,就可以通过模仿他人的行为来学习,通过动机控制、情感学习等方面的建模,来实现一种元学习能力的计算模型。

7)神经符号整合计算方法:从亚符号性感受跨越到符号性认知,就必须实现从神经网络的激活计算模式到符号逻辑计算模式的转换。

从外部表现来看,意识的一个特征是可报告性。因此从信息整合理论的角度,大脑不同部位间的交互连接对于实现可报告性是必要的。交互连接和信息集成与意识是紧密相关的,因为它们促成了报告、记忆、情境觉知和许多认知功能的形成。大脑不同部位间如果没有交互连接,就不可能产生报告,也不可能记忆任何事件。如果大脑不同部位间没有交互连接,我们甚至不能抓取到任何意识内容。

从内部机制来看,构造意识机器系统的先决条件就是必须要解决亚符号信息处理与符号信息处理相互结合的问题。采用作为亚符号信号处理方法引入的联想神经网络和分布式信号表征可以实现联想信息处理,而联想信息处理本身又必然地促进从亚符号到符号处理的转换。于是,意识机器认知功能的实现就要运用信息整合和感觉运动整合机制。

在海科宁看来,意识是基于感受性的内部表现,是环境感知、自身感知以及精神内容的外化。可报告的认知构成了意识的内容,没有认知也就没有意识。有意识的思维应该拥有具体感觉和想象能力,除此之外还可能需要一种有意义的认知符号流,类似于自然语言的内部言语。有意识的个体应该能够自我报告自身的意识内容,并且把这些内容以各种形式外化,如使用自然语言来报告内在的意识状态。意识是信息的一种内部表现,不存在某种所谓的“自我”智能体或内部小妖。

基于上述认识,海科宁提出了一种意识认知体系模型HCA(Haikonen Cognitive Architecture),其目的就是为了产生具有意识性的仿人认知能力。因此,在该体系中详细设计了整体架构、信息处理方法和基本构件。需要说明的是,HCA尽管受到人脑和人类认知的启发,但其并不试图去精确地对人脑进行建模,只是尝试去解决意识的感受性问题。设计HCA是为了实现一般感觉和运动感觉的整合,实现感官感知和想象感知,实现情感效应和某种自然语言运用。HCA体系是一个并行、分布式架构,并没有全局工作空间,其执行功能和关注功能都是分散的。

HCA是一个在内部和外部因素综合作用下自主行动的系统,关于控制、动机和驱动也都有特定的实现机制。比如内部动机包括对能量的需求和对环境安全的需求,而基于疼痛、愉悦这样的动机,则采用赏罚方式来训练机器形成行为和执行任务。当然,外部环境也可以为系统提供动机,并且外部因素作为触发动机可以用来引导系统认知的发展。

HCA由一系列感知/响应的反馈环模块组成,各模块彼此之间进行广播,因此是一个并发分布式体系,其大量的交叉连接可以应对各种情况下所需要的联合。HCA也是一个动态感知系统,是一个存在内部思想流和内部语言表达的系统,有可能产生有意识的类人认知。还有,HCA利用分布式信号表示的联想信息处理,以情绪评价以及匹配与否、异常检测作为关注和关联指导因素。

总之,海科宁认为,意识性认知需要各种感觉信息的整合,而可报告性是有意识的一个特点,是基于信息整合的。因此,通过亚符号到符号转换的联想神经网络信息处理,HCA不仅满足了身体感觉和运动感觉无缝整合的需求,而且还可实现模块的局部联合和并发工作。利用HCA可以人工实现一些认知功能,如感知、学习、记忆、内省、语言和内部言语、想象、情绪等。可以说海科宁构想的HCA模型及其实现的XCR-1系统,确实代表了目前机器意识研究工作的典范。

1.3.2 符号规则方法

构造机器意识系统,特别是拥有自我意识的机器人系统,除了神经网络计算方法的运用外,由于涉及高阶认知能力或元认知能力,自然也离不开传统的符号规则计算方法。我们知道,符号规则计算方法与认知科学中的符号系统范式相对应,其实质性观点简单说就是:心智内部具有对世界的“表征”,并可以根据“规则”来操作或操纵这些表征,以及按照符号规则方法来构建机器功能意识系统。机器功能意识研究着重于在感知、认知、情感与行为等功能实现的基础上,按照高阶认知意识理论的思路,围绕着自我意识的实现问题,来开展具体的工作。

从时间上看,有关机器功能意识的讨论始于20世纪90年代末。1999年,被誉为人工智能之父的麦卡锡教授,强调了机器人需要具备观察自身心理状态的能力(McCarthy,1999),并提出了自我意识机器必要的九个特性:1)对自身的观察(机器状态、环境状态);2)对事物是否了解(知道自己知道,或者知道自己不知道);3)保存物理事件和心理事件(记忆);4)观察行为目标(知道自己要做什么);5)有意图地提出某种行为;6)思考怎样达成期望;7)理解自身期望的形成;8)把自身的心理状态当成一个对象;9)知道什么是当前可以达到的(自省能力)。

与麦卡锡不同,兹拉特夫(Zlatev)提出个体形成自我意识的三个必要条件是(Zlatev,2000):1)感觉-运动协调系统;2)具备一种能够识别和模仿其他同类的能力;3)置身于一个复杂社会环境下,能够预测和评估自己与他人的行为。据此他提出了机器自我意识可能的形成过程:1)建立主体间性,通过与环境中其他个体的比较,与其他个体区别开来;2)发展出自身对象化描述;3)发展形成意志控制;4)发展出对其他对象的描述,能够在心里思考其他对象的行为;5)发展出自身描述,并能够在心里反思自身行为。

自我意识属于高阶认知能力或元认知能力,因此需要建立在一阶认知功能之上,特别是有关语言能力(可报告性的内部语言机制)、想象能力(特别是记忆联想机制)以及情感表现(涉及情感意识体验机制)等众多方面。自然,在长达20多年的机器意识研究中,在这些与意识相关的认知功能实现方面都有涉及。

在语言能力方面,早在1989年安琪儿就给出了一个基于语言主体的意识机器体系结构(Angel,1989),认为围绕着意识系统必须具有这样的三种能力:1)拥有与所接触其他主体无关的自身独立目标;2)建立在自然或纯粹基础上的主体间交流的能力;3)具有依据某种自然语言组合意义来进行学习的能力,以满足其自身目标的实现和进行对话讨论的需要。应该说,意识能力的一个重要方面是内部语言运用。根据斯蒂尔斯的研究(Steels,2001,2003),内部言语通过自我主体性描述与意识体验相关联。奥古斯汀等人对内部语言(inner speech)做了研究综述,详细讨论了内部语言的本质及其相关功能(Agustin,2011)。在内部语言计算实现方面,最近切拉等人构建了一种内部语言的认知架构,试图说明机器通过内部语言和长期记忆可以产生意识能力(Chella,2020)。

在意识想象方面,齐姆克等人使用Khepera机器人进行了一系列有关想象能力的实验(Ziemke,2005)。勒瑟尔给出了一种机器意识的联想神经网络(Lesser,2008),而克洛斯等人给出了关于机器意识涉身和想象方面的综述(Clowes,2007)。斯图尔特则在躯体想象方面进行了研究,认为要在真正意义上实现机器意识,系统与世界的涉身交互是必需的,因而强调躯体想象是必须研究的重点问题(Stuart,2007)。帕格尔和基什坦探讨了意识、想象和梦境的关系,并研究了做梦机器人的相关问题(Pagel,2017)。另外,巴尔克尼斯提出了一种意识机器人的记忆模型,实现了机器人的情景记忆、想象等意识功能(Balkenius,2018)。

在体现意识的情感表现方面,哈德利卡提出了一种情感与意识关联的计算模型(Hudlicka,2009)。布洛肯等人使用时序跟踪语言(Temporal Trace Language,TTL)给出了达马西奥(Damasio)核心意识部分的情感计算模型(Broekens,2013),模拟了神经加工导致情感、感受和核心意识等的动力学性质。勒杜则基于意识的高阶理论,提出了情感意识的高阶理论(Ledoux,2017)。

而在情感的机器实现方面,日本研究人员开展了众多研究。比如林下开发了模拟多巴胺系统并会趋利避害的情感机器人,并给出了一些模仿动物意识行为的机器实现(Hayashi,2008)。高山等人开发了一个意识机器人系统,可根据自身的好奇心进入未知环境以使自己感到愉快(Takayama,2017)。Tojo将感受定义为基于主观体验的知识内容,开发了一个交互式教学机器人ITR系统,实现了具有类似感受与觉知功能的机器系统(Tojo,2018)。这种将感受意识与觉知意识相结合的研究代表了未来情感交流意识机器实现的新方向。

有了具体意识功能模块的支持,自然就会开展综合性的自我意识机器人系统的构建工作。荷兰德研究团队的工作就是一个典范,他们认为在我们的意识认知状态中内部模型起到了重要作用,为了测试那些内部建模理论,他们强调类人涉身方法的运用,构建了一个具有自我意识能力的综合意识机器人系统CRONOS(Holland,2003,2007a,2007b,2009)。

CRONOS是少有的宏大机器意识工程项目,其组成包括一个接近人类肌肉骨架系统的硬件机器人CRONOS、一个机器人所在环境物理实时模拟系统SIMNOS、一个仿生物视觉系统,以及一个被称为脉冲流(Spike Stream)的脉冲神经模拟器。整个项目主要关注的是机器意识中认知能力、体系结构和现象意识三个方面。CRONOS项目建立了在功能上类似于人类的机器人,提供了一个有自我与世界的内部模型,不仅可以用来考察人工智能,而且也可以用来考察机器意识。

当然,在自我意识方面的机器实现研究中,因为涉及反思意识机制,自我内省反思机制无疑是最为重要的一个方面。自我意识是最令人迷惑不解的认知特征之一,因此许多机器自我意识的研究工作常常将其看作一种“自我”(ego或self)的意识能力。之前的研究工作主要是在智能系统或机器人系统中兼顾“自我”的作用,后来逐渐向着“自我”感受、识别、表征以及学习等方面发展。

显然,将自我意识看作“自我”的意识是一种误解,但如果将这里有关“自我”的机器意识研究看作对机器人或智能系统自身本体感知的反思,也不失为自我意识的一个重要方面。比如铃木给出了能够区别自我与他人的意识机器人并进行了行为模仿实验(Suzuki,2005),卢埃西斯则使用模块神经网络来实现人工体的自我意识(Luaces,2008),以及川村采用多主体认知结构体系开发了一个具有自我感觉的机器人系统(Kawamura,2005),这些都是属于这方面的早期研究工作。

在机器自我意识研究中,以意识的高阶理论为指导,往往会采用传统的符号规则方法来建立某种具有自我意识的机器系统。在作为高阶认知能力的自我意识实现中,由意大利巴勒莫大学机器人实验室切拉教授领衔开展的Cicerobot机器人研究项目(Chella,2008a,2008b,2009,2012),是一项比较系统的研究工程。机器人Cicerobot拥有一个声呐、一个激光测距仪和一个照相机,主要进行博物馆的导游工作。认知体系结构设计主要围绕着三维环境的机器人导航展开,其中“意识”认知机制用来控制机器人处理不可预见的博物馆环境的变化,以便采取相应的行为。切拉教授给出了机器人自我意识的一种认知结构机制,其主要由三个部分构成。1)亚概念(subconcept)部分,涉及来自传感器的感知数据的底层处理;2)语言部分,给出基于逻辑形式化的表征与处理;3)概念部分,将来自于亚概念部分的数据组织为概念范畴。这样,通过机器人高阶感知(一阶感知是指对外部世界的直接感知,高阶感知是对机器人内部世界的感知),就形成了具有内部语言能力的自我意识机器人(Chella,2008a,2020)。这项研究工作的主要特点是将逻辑形式化方法与概念空间组织相结合,强调对外部事物的一种心理表征能力,并对外部环境进行内部模拟。

在自我意识机器建模研究方面,另一个做出非常突出的贡献的是美国乔治梅森大学的萨姆索诺维奇教授率领的研究团队,他们取得了系列性成果(Samsonovich,2004,2009;Stocco,2010)。萨姆索诺维奇研究团队主要是基于图式(schema)建立了一个自我意识模型,该模型的认知体系结构是围绕着图式展开的。图式所涉及的处理数据包括语义知识、行动要素或感觉感受性。对图式进行操作的行为由一组公理约束,对应于系统的自我“意识”。这些代表“自我意识”的公理便是主体自己遵循的信念,比如自我是唯一进行自我初始化活动的执行者、自我是不可分解的等。

该团队经过长期研究,开发了一个基于仿生原理的混合式认知体系GMU-BICA(George Mason University-Biologically Inspired Cognitive Architecture),主要对人类高级认知能力进行建模,是近年来唯一关注“自我”的机器意识系统。在该系统中定义的心理状态不但包含内容,还包含主观观察者,因此拥有“自我”意识的主观能力。他们主要通过控制虚拟机器人完成一些简单走迷宫活动实验来验证认知结构模型的有效性,让机器人表现出具有人类意识所需要的行为。后来,在此基础上萨姆索诺维奇将情感和感受引入此系统,给出了一个情感认知体系eBICA(Samsonovich,2013,2020)。

相比而言,与Cicerobot机器人强调自我意识是一种反思能力不同,GMU-BICA系统则将自我意识理解为“自我”的意识。当然不管是CRONOS、Cicerobot,还是GMU-BICA,与其他强调高阶认知的机器自我意识研究一样,这样的高阶认知模型往往对心理扫视(内省性注意机制)、主观体验与统一意识、行为觉知与行为学习等自我意识的一些核心能力兼顾不足。

作为对自我意识能力的不同理解,更多有关自我意识计算模型的构想主要是关于高阶认知能力实现方案方面的,如自我表征模型(Kriegel,2006)、自治情景智能体(Arrabales,2008)、自我知识模型(Gage,2011)和元学习模型(Seta,2012)等。这些方案中一般采用更高阶主体(多主体系统)或模块(单主体系统)来实现元认知处理工作(Matsui,2012)。当然,也有涉及真正自我意识的研究工作,如自我意识机器人(Seidita,2010)、自我觉知模型(Golombek,2010)、超集自我模型(Goertzel,2011)等。

最近机器自我意识研究有了一些新的发展动态。比如,苏巴格贾等人提出了一种自我意识的仿脑模型ARTSELF,并应用于NAO机器人,机器人可以根据自己的身份、社会生活等回答人们提出的问题(Subagdja,2017)。罗德里格斯使用本体感受传感器,开发了一个姿势识别系统,使得NAO机器人能够觉知到自身的姿势(Rodriguez,2017)。特别是,利普森认为自我意识就是模拟未来自我状态的一种能力,对未来的预测能力越强,自我意识程度就越高。机器如果能够自我模拟,也就具备了自我意识。基于这种理论,他开发了一个机械臂,能够在自己“大脑”创建的模拟环境中学习,产生自我意象,进而完成未知的任务;这个机械臂还可以检测到自我的损伤,从而重新自我建模。利普森的工作实现了意识机器人的工程学突破,也为理解自我意识提供了新的视角(Lipson,2019;Kwiatkowski,2019)。

从上面有关机器自我意识研究的现状分析中可以看到,不管是将自我意识看作某种高阶认知或元认知能力,还是将自我意识看作一种“自我”觉知能力,所给出的有关计算模型、机器人系统或测验方法都还存在许多不足。应该看到,机器自我意识的研究是一个富有挑战性的课题,目前所有这方面的研究还处于刚刚起步阶段,除了技术实现方面的困难外,这样的研究还会引起许多哲学上的争议。

1.3.3 量子计算方法

对于神经网络模型,由于雷兜文证明了这种神经联结主义方法从根本上讲其表达能力与传统的符号逻辑主义方法是等价的(Radovan,1997),而对于符号逻辑主义方法,已经证明其不可能描述现象意识(Caplain,1997),因此传统符号规则方法和神经网络方法存在一定的局限性。于是为了弥补传统计算方法无法涉及现象意识的局限性,一些科学家提倡采用量子物理学方法来进行意识建模(Schweizer,1997),采用超逻辑的量子纠缠计算来兼顾感受性意识的机器实现问题。为此,我们首先介绍意识的量子理论构想,然后在此基础上对目前有关意识的量子模型研究现状进行概述。

1. 刻画意识的量子理论

量子理论是20世纪初开始形成的描述物理世界微观粒子运动规律的科学理论(Polkinghorne,2002)。经过100多年的发展,已有越来越多的实验证实了量子理论所提出的假设。量子力学分为多个学派,不同的学派对量子力学(主要是波函数塌缩)的诠释不同,如哥本哈根诠释(Copenhagen interpretation)、多世界诠释(many-worlds interpretation)、隐变量理论(hidden variable theory)等。其中哥本哈根诠释是量子力学的正统诠释。哥本哈根诠释认为,粒子的状态可以用一个波函数(wave function)来描述,一般用ψ来表示。波函数是一个复变函数,其演化遵循薛定谔方程(Schrödinger equation)。|ψ|2称为概率幅值,描述粒子在各个位置被测量到的概率分布。当人们观测粒子时,波函数就会塌缩到一个确定的状态,表示我们观测到了粒子确定的位置。不过,根据海森堡测不准原理,粒子的位置和速度是不可能同时精确测到的。

我们知道,量子理论的内容已经超出人们日常生活经验的范围,只能依靠人的理性思维来理解,测不准原理表明人的观测(干预)引起波包塌缩,在这种情况下,纯粹的“客观”实验已不存在,主观和客观在此过程中交汇在一起。量子理论认为“习惯上把世界分成主体和客体、内心世界与外部世界、肉体与灵魂的这种二分法是不恰当的”。正是因为量子理论具有这一特性,所以可以将其用于意识解释理论的构建之中。

用量子理论刻画意识无疑是物理学理论进入精神世界所具有挑战性的研究工作,因此吸引了各个领域的专家学者,并给出了众多有关意识的量子解释方案(Atmanspacher,2004)。比如,玻姆提出的隐缠序与显析序理论(Bohm,1980,1993),彭罗斯提出的波函数客观塌缩(Objective Reduction,OR)理论(Penrose,1990),梅泽等人提出并由吉布等人发展的量子大脑动力学(Quantum Brain Dynamics,QBD)(Jibu,1995),斯塔普提出的意识的量子机制模型(Stapp,2007),以及哈梅罗夫和彭罗斯提出的协同客观塌缩(Orchestrated Objective Reduction,Orch-OR)模型(Hameroff,2007,2014a)等。

量子力学所描述的微观粒子具有很多与经典力学不同的违反直观的奇妙性质,如波粒二象性(wave-particle duality)、量子测不准原理(uncertainty principle)、量子波函数塌缩(quantum collapse)、量子相干(quantum coherence)、量子叠加(quantum superposition)、非局域量子纠缠(quantum entanglement)、量子不可克隆定理(no-cloning theorem)、量子隧道效应(quantum tunneling effect)等。这些性质和神秘的意识现象具有一定的相似性,因而一些哲学家和科学家认为可以用量子力学来解释意识现象(Woolf,2001;周昌乐,2003e;Stapp,2007)。尽管量子力学的思想实验“薛定谔的猫”(Schrödinger's Cat)表明微观层次的量子特性很难迁移到宏观世界,不过,许多学者还是认为意识是一种宏观量子效应,涉及超导性、超流性、电磁场、玻色-爱因斯坦凝聚或者其他机制。量子粒子的主要性质及其与意识的可能关联包括(Woo,1981;Woolf,2001):1)量子相干,粒子之间存在干涉效应,可以对应到意识统一性的物理基础;2)量子叠加,粒子可以同时处于多种状态,可以对应到前意识与潜意识加工、梦与意识变更状态;3)量子纠缠,粒子间可以存在非局域性关联,可以对应到联想记忆、非局域性意识关联;4)量子塌缩,粒子可从叠加态塌缩到本征态,可以对应到从前意识到意向意识的转变。

在认知和行为等宏观方面,量子和意识的关联是比较明显的。例如,詹森指出,人类意识中存在一个动态潜在系统(dynamic potentiality system),其运行机制遵循量子叠加原理。例如人们的行为、决策等在没有最终确定前都处于若干可能性的叠加状态,而最终量子塌缩到的本征态就对应了人们的最终选择结果(Jansen,2008)。

康特的行为学实验表明,人们在感知和认知过程中,心理状态遵循量子力学规律并存在量子干涉效应。例如,对于排他性选择歧义图案或歧义语句,我们可以意识到其中存在多种表征含义,这遵循量子叠加原理;但在同一时刻,我们只能感知到其中一个,这意味着量子叠加态塌缩到了其中一个本征态(Conte,2008,2015)。

2. 人脑是否存在量子计算过程

那么,人脑产生意识活动真的是基于量子机制的吗?对于人脑中是否存在量子意识过程有两种不同的观点(Görnitz,2010;Yu,2011)。其中,影响最大的观点是哈梅罗夫和彭罗斯提出的Orch-OR理论(Hameroff,1996b,2014a,2014b)。这个理论认为,大脑既是神经计算机又是量子计算机,意识产生于微管(细胞骨架的主要部分)中的量子计算。微管中的π电子可形成玻色-爱因斯坦凝聚(Bose-Einstein Condensate,BEC),当BEC塌缩时意识就产生了。这里BEC由玻色子构成,是宇宙中最有序和最一体化的结构之一。BEC存在于生物组织中,是生物系统保持统一性的物质基础。这个理论对于构建意识机器的意义在于,如果大脑确实是一台量子计算机,而意识确实是大脑中量子计算的产物,那么就有可能在量子计算机上实现人类意识。

Orch-OR理论主要面临3个问题。一是从技术上来说,量子计算需要一个相对隔绝以及低温的环境,以避免与环境交互而引起量子去相干,而在温暖湿润的大脑中如何产生量子效应呢?二是不同神经元细胞中的量子态是如何交互的,从而确保神经元能协同运作?三是在植物以及动物的细胞中也有微管存在,为何它们不具有人类意义上的意识现象呢?

对于第一个问题,很多人都提出了质疑,影响最大的是泰格马克。他的工作(Tegmark,2000a,2000b)是通过计算去相干率,发现室温下去相干时间远远小于神经元放电的时间,也就是说大脑中的粒子在进行量子计算之前就已经因为与环境的交互退化到经典状态了,因而大脑中的计算应该是经典计算而不是量子计算,因此当前运用人工神经网络等经典方法来构建机器意识本质上并没有问题。同样,利特也认为一个足够复杂的神经网络原则上足以执行所有与意识有关的认知过程,因此大脑并不是量子计算机(Litt,2006)。此外,巴尔斯与埃德尔曼也对Orch-OR理论提出了批评(Baars,2012a,2012b)。他们认为,神经现象原则上可还原为量子事件,但是量子力学并不是解释意识现象的合理层次,也没有解释能力,应该着重寻找意识的神经相关物。科赫等人也持有相同观点,认为尽管大脑遵循量子力学,但并没有充分利用任何量子力学的特性(Koch,2006)。不过,近些年,也有支持Orch-OR理论的实验结论(Pitkänen,2014)。

与哈梅罗夫的观点类似,佐哈尔认为,意识产生于大脑中具有显著统一性的量子力学结构,即玻色-爱因斯坦凝聚(Zohar,1995)。与之类似,马歇尔分析了注意在意识形成中扮演的角色,认为大脑是一台量子计算机,大脑中玻色-爱因斯坦凝聚的塌缩是意识形成的基础,因此缺少玻色-爱因斯坦凝聚的机器是无法具有意识的(Marshall,1995)。

阙菲特等人从信息加工的角度定义意识,认为大脑是一台量子图灵机:在大脑中,四周电解液的电位为纸带,而皮层细胞执行扫描纸带的动作,从而完成计算。计算遵循量子逻辑而非经典逻辑,因而纸带上的位可以同时处理,并且由于纸带上的位是处于量子叠加态的,因而最终输出的结果原则上是不可预测的(Triffet,1996)。

我们认为,人脑是不是一台量子计算机并不重要,关键在于人脑产生意识活动的过程是否具有量子物理类似的机制,如果具有类似的作用机制,那么我们就没有理由在构建意识理论模型中排斥运用量子机制的方法。尽管在量子力学与意识之间也许存在10多个组构层次,化学键、分子及其自组织、分子生物学、遗传学、生物化学、膜及其离子通道、突触及其神经递质、神经元、神经回路、皮层柱和模块、大规模皮层的动态活动等,但依然可以运用量子机制理论来解释意识现象,并通过量子纠缠本性来阐述意识的本性。必须清楚,量子理论描述意识产生机制的有效性并不是说物质的量子活动可以直接产生意识,而是强调意识产生机制与量子运动机制具有跨越尺度的自相似性。

应该清楚,心智活动必然是一种多层次现象,因为我们不能总体上从意识对象中划分出意识,这一意识对象可以是一种内部虚拟图像,也可能同时是一种真实的外部对象。如果无意向性的体验意识具有量子性质(本性),对应着神经图式的虚拟表象,以及意向性的外部对象具有经典(神经)本性,那么意向性意识必定是一种量子-神经的关联性结合,并进一步与(外部)环境经典状态相关联。

自20世纪80年代开始,用神经网络理论作为一种模型来解释人脑的认知过程成为一种研究动向,并推动了机器意识的起步发展。同时,也有人把神经网络的活动考虑为一种时空神经信息波的变化过程,用波函数描述时空信息的变化,因此很自然地可以把量子理论中的一套方法应用到意识研究工作中来,从神经网络的活动层面上说明意识过程的许多特性(Lockwood,1989)。

因此,仍然可以在量子信息状态与意识虚拟表象之间找到一种对应关系。根据佩鲁斯的观点,意识虚拟表象通常基于吸引子活动的神经图式。这里,吸引子是一种不能仅仅被还原到神经图式(代表吸引子的核)的语境自涌现结构。在系统动力学的构建空间中,一个神经图式仅当其比邻近的神经构建更稳定和更起主导作用时,才成为一个吸引子(Perus,1996)。

虽然由薛定谔方程决定的量子机制不能展示吸引子,但它们可以在波函数坍缩情况中形成吸引子。在那种情况下,因为经典宏观系统(测量仪器或环境或我们的感官)与量子系统的相互作用,波函数坍缩到一个特定的量子本征态(一个量子图式)作为一个吸引子而出现。由于这样的吸引子仅作为与经典系统相互作用的结果出现,所以这里也有量子虚拟结构且它们不可能仅仅被还原为一个量子本征态。这样,量子虚拟结构就被重构为量子测量的结果,其中“测量仪器”可以直接是我们的感官并与神经系统联结,或者是一台由神经系统观察的机器——间接方法。无论是哪种情况,波函数坍缩都作为一个与特定经典系统相互作用的结果而出现。

所以再次强调,虚拟结构不能被还原到一个神经或量子媒介的对应状态,尽管它们与其密切相关。虚拟状态总是非局域性的或并行分布的。它们不能被测量,或许仅能被间接测量,——在它们对应的神经或量子集群的状态上。为了便于建模和分析,我们必须区分神经的、量子的和虚拟的层次,以及环境的影响。当然在一个有机组织的合成中,它们涉及一个包括环境的统一过程,这个统一过程就可称为(意向性)意识。

总之,用量子理论来进行意识建模最大的问题是现实可能性,正像我们前面已经指出的,无须也不必将意识下降到量子层面,我们只需关注神经元集群相互作用的类量子机制。用量子机制来描述意识活动具有更大的优越性,如果在此基础上能够结合神经网络模型的方法,那么就可能得到更为理想的效果。实际上,一个复杂系统的每一个集群状态可以形成特定的完形结构,其不可能简单地归结为系统构成要素。这时就需要解决这样一个普遍存在的问题,即一种特定同构(即分形)多层次相关性的构成问题,此时量子态的叠加表征就是一种不错的可选方案。因此,基于量子计算的机器意识也许不会与人类意识等价,但其可以成为人类意识非常不错的替代方案。

3. 意识量子计算途径

不过,尽管对于大脑中是否存在量子计算这一问题还没有一个确定的答案,但从计算能力上来看,量子计算能力确实远远超过经典计算;从描述能力上来看,量子计算相比经典计算能更好地解释意识现象;此外,量子计算可以突破预先编程的限制。因而未来如果出现意识机器,也很可能是量子计算机而不是经典计算机。因此,如何将量子理论与意识机器的构造进行有机结合就是一个关键问题,目前主要有如下三种结合途径。

第一种方法是将意识的某些问题形式化为数学问题,利用量子力学的数学形式,通过量子方程、量子逻辑、量子算法等来实现机器意识。例如,玛钧德提出了认知量子数(Cognitive Quantum Number,CQN)的概念,并将其作为机器所使用的逻辑,然后通过量子逻辑公式推导,建立了机器内部通用的量子逻辑体系(Majumder,2011)。施罗德将意识的统一性解释为大脑整合功能的结果,并利用量子相干代数性质对意识的统一性进行了建模(Schroeder,2009)。门斯基基于量子力学的多世界诠释,提出了扩展多世界框架的概念,并在此框架中对意识和超意识进行了数学建模(Mensky,2007,2011,2013)。门斯基认为,人们在睡眠、催眠等意识消失的状态下会出现超意识,由于超意识的作用,人们可以通达各个可能世界,进而可以主观选择意识恢复后想要进行体验的世界。托法诺将量子本征逻辑应用于量子小车的行为分析,通过多值模糊量子逻辑门的控制以及不同逻辑门的变换和组合,扩展了量子机器人的情感行为(Toffano,2019)。马汉蒂对量子小车进行了改进,利用量子算法控制小车飞翔,提出了一种新的量子线路,并在IBM量子计算平台上对其进行模拟实现,使得量子机器人能够表现出恐惧行为,从而在运动中成功避障(Mahanti,2019)。

第二种方法是通过将量子计算与经典计算理论和方法相结合来实现机器部分意识功能。比如,卡克提出的量子神经计算(quantum neural computing)或量子神经网络(Quantum Neural Network,QNN)方法(Kak,1995)。不过,对这种方法的大多数研究是关于怎样在传统神经网络的某些计算过程中引入量子机制,从而更好地应用于机器学习。对于机器意识的研究,佩鲁斯认为,规模足够大并且足够复杂的神经网络并不足以成为产生意识以及感受性的充分条件,因为神经网络的神经元、突触的信息处理过程过于机械、离散和确定;而仅在量子层次考虑意识又会使得模型过于复杂。因此在构造意识机器时,需要将神经层次和量子层次结合起来,从而可以将神经网络的活动看成时空神经信息波的演化过程,进而用波函数来描述这种时空信息的变化(Perus,1996,1997)。我们早期有关意识的量子计算模型就属于这方面的研究(周昌乐,2003b,2003e;Zhou,2003)。近年,比亚蒙特提出了量子机器学习(Quantum Machine Learning,QML)(Biamonte,2017),也属于这方面的研究工作。

第三种方法是借鉴目前神经生物学、脑科学等对意识的神经相关物的研究成果,结合现有量子意识理论,或采用某些具有量子效应的生物组织,或使用仿生计算的方式,来构建量子意识机器。早期阿莫罗索开展了这方面相关的研究(Amoroso,1997),他认为大脑和机器中意识存在的前提条件是在随机化过程中信息的排序和存储,重点是量子系统能否自组织,并据此构造了一个意识计算机。阿莫罗索构建的意识计算机由输入输出装置和一个动态计算核心组成,通过产生玻色-爱因斯坦凝聚来模拟人脑中的量子效应。沃尔芙基于意识的神经同步振荡以及Orch-OR理论,提出了一种视觉意识的量子生物学计算模型(Woolf,2001)。在沃尔芙的模型中,神经元活动被划分为一系列几百微秒的分片,每个分片在40Hz振荡时发生的量子计算就产生了视觉意识。穆雷卡则在Orch-OR的基础上,根据微管蛋白中大量纠缠分子的量子计算行为,提出了一种意识涌现的量子计算模型。穆雷卡的模型主要是基于分子纠缠数字位状态,依靠彭罗斯-迪奥西(Penrose-Diosi)的重力驱动波函数塌缩框架来实现意识呈现计算(Mureika,2007)。亚当斯基分析了玻色-爱因斯坦凝聚在人类意识中的作用,并指出可以通过电子信息系统和人类生物系统相融合的方式来构建意识机器人(Adamski,2016)。

总的来说,采用量子物理学方法或原理来进行意识建模的研究方兴未艾,有着广阔的研究前景。或许有朝一日,我们能够重构从量子到意识的理论框架,从而为机器意识的研究提供坚实的基础。

从上述综述不难看出,机器意识的研究主要围绕着量子涌现机制、全局工作空间、信息整合理论、意识高阶理论以及意识公理系统等五个主要方面展开。我们相信,随着这一类研究工作的不断深入,开展机器意识研究的重要意义也会日益凸显。因为,开展机器意识研究不仅是一种技术挑战,也是解决那些人工智能尚未得到满意解答难题的新途径。另外,开展机器意识的计算建模研究还有助于推进对人类意识现象的理解,推动构建更加合理的意识理论。这也说明,机器意识研究不但对于深化人工智能的研究有着重要的推动作用,即使对于科学解释神秘的意识现象也同样具有重要的推动作用。