1.2 人工智能三大流派
达特茅斯会议之后,掀起了人工智能的第一波热潮。各路思想相继涌现,后世将其总结为三大流派,分别是符号主义学派、连接主义学派和行为主义学派。
1.2.1 符号主义
符号主义,又称逻辑主义、心理学派或计算机学派,是一种基于逻辑推理的智能模拟方法,认为人工智能源于数学逻辑,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。该学派认为人类认知和思维的基本单元是符号,智能是符号的表征和运算过程,计算机同样也是一个物理符号系统,因此,符号主义主张(由人)将智能形式化为符号、知识、规则和算法,并用计算机实现符号、知识、规则和算法的表征和计算,从而实现用计算机来模拟人的智能行为。
其首个代表性成果是启发式程序LT(逻辑理论家),它证明了38条数学定理,表明了可以应用计算机研究人的思维过程,模拟人类智能活动。此后,符号主义走过了一条启发式算法—专家系统—知识工程的发展道路。
专家系统是一种程序,能够依据一组从专门知识中推演出的逻辑规则在某一特定领域回答或解决问题。1980年卡内基-梅隆大学为数字设备公司设计了一个名为XCON的专家系统,在1986年之前,它每年为公司省下四千万美元。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了20世纪80年代AI研究的主要方向。专家系统仅限于一个专业细分的知识领域,从而避免了常识问题,其简单的设计又使它能够较为容易地编程实现或修改问题。专家系统的成功开发与应用,对人工智能走向实际应用具有特别重要的意义,也促成了符号主义最辉煌的时期。但凡事有利有弊,专家系统仅仅局限于某些特定情景,且知识采集难度大、费用高、使用难度大,在其他领域如机器翻译、语音识别等基本上未取得成果。日本、英国、美国在80年代初都曾制订过雄心勃勃的人工智能研发计划,如日本的第五代计算机项目,其目标是造出能够与人对话、翻译语言、解释图像,并且像人一样推理的机器,但直到1991年,这个目标依然未能实现。
20世纪80年代末,符号主义学派开始式微,日益衰落,其重要原因是:符号主义追求的是如同数学定理般的算法规则,试图将人的思想、行为活动及其结果,抽象化为简洁深入而又包罗万象的规则定理,就像牛顿将世间万物的运动蕴含于三条定理之中。但是,人的大脑是宇宙中最复杂的东西,人的思想无比复杂而又广阔无垠,人类智能也远非逻辑和推理。所以,用符号主义学派理论解决智能问题的难度可想而知;另一个重要原因是:人类抽象出的符号,源头是身体对物理世界的感知,人类能够通过符号进行交流,是因为人类拥有类似的身体,计算机只处理符号,就不可能有类人感知,人类可意会而不能言传的“潜智能”,不必或不能形式化为符号,更是计算机不能触及的。要实现类人乃至超人智能,就不能仅仅依靠计算机。
1997年5月,名为Deep Blue(深蓝)的IBM超级计算机打败了国际象棋世界冠军卡斯帕罗夫,这一事件在当时也曾轰动世界。其实本质上,“深蓝”就是符号主义在博弈领域的成果,如图1-4所示。
图1-4 IBM超级计算机Deep Blue
1.2.2 连接主义
连接主义,又称仿生学派或生理学派,是一种基于神经网络和网络间的连接机制与学习算法的智能模拟方法。连接主义强调智能活动是由大量简单单元通过复杂连接后,并行运行的结果,基本思想是,既然生物智能是由神经网络产生的,那么就通过人工方式构造神经网络,再训练人工神经网络产生智能。1943年形式化神经元模型(M-P模型)被提出,从此开启了连接主义学派起伏不平的发展之路。1957年感知器被发明,之后连接主义学派一度沉寂。1982年霍普菲尔德网络、1985年受限玻尔兹曼机、1986年多层感知器被陆续发明,1986年反向传播法解决了多层感知器的训练问题,1987年卷积神经网络开始被用于语音识别。此后,连接主义势头大振,从模型到算法,从理论分析到工程实现,为神经网络计算机走向市场打下基础。1989年反向传播和神经网络被用于识别银行手写支票的数字,首次实现了人工神经网络的商业化应用。
与符号主义学派强调对人类逻辑推理的模拟不同,连接主义学派强调对人类大脑的直接模拟。如果说神经网络模型是对大脑结构和机制的模拟,那么连接主义的各种机器学习方法就是对大脑学习和训练机制的模拟。学习和训练是需要有内容的,数据就是机器学习、训练的内容。
连接主义学派可谓是生逢其时,在其深度学习理论取得了系列的突破后,人类进入互联网和大数据的时代。互联网产生了大量的数据,包括海量行为数据、图像数据、内容文本数据等,这些数据分别为智能推荐、图像处理、自然语言处理技术发展做出卓著的贡献。当然,仅有数据也不够,2004年后大数据技术框架的形成和图形处理器(GPU)的发展使得深度学习所需要的算力得到满足。
在人工智能的算法、算力、数据三要素齐备后,连接主义学派就开始大放光彩了。2009年多层神经网络在语音识别方面取得了重大突破,2011年苹果工作将Siri整合到iPhone4中,2012年谷歌研发的无人驾驶汽车开始路测,2016年DeepMind击败围棋冠军李世石,2018年DeepMind的Alphafold破解了出现了50年之久的蛋白质分子折叠问题。
近年来,连接主义学派在人工智能领域取得了辉煌成绩,以至于现在业界大佬所谈论的人工智能基本上都是指连接主义学派的技术,相对而言,符号主义被称作传统的人工智能。
虽然连接主义在当下如此强势,但可能阻碍它未来发展的隐患已悄然浮现。连接主义以仿生学为基础,但现在的发展严重受到了脑科学的制约。虽然以连接主义为基础的AI应用规模在不断壮大,但其理论基础依旧是20世纪80年代创立的深度神经网络算法,如图1-5所示,这主要是由于人类对于大脑的认知依旧停留在神经元这一层次。正因如此,目前也不明确什么样的网络能够产生预期的智能水准,大量的探索最终失败。
图1-5 深度神经网络算法
1.2.3 行为主义
行为主义,又称进化主义或控制论学派,是一种基于“感知—行动”的行为智能模拟方法,思想来源是进化论和控制论,其原理为控制论以及感知—动作型控制系统。该学派认为:智能取决于感知和行为,取决于对外界复杂环境的适应,而不是表示和推理,不同的行为表现出不同的功能和不同的控制结构。生物智能是自然进化的产物,生物通过与环境及其他生物之间的相互作用,从而发展出越来越强的智能,人工智能也可以沿这个途径发展。
行为主义对传统人工智能进行了批评和否定,提出了无须知识表示和无须推理的智能行为观点。相比于智能是什么,行为主义对如何实现智能行为更感兴趣。在行为主义者眼中,只要机器能够具有和智能生物相同的表现,那么它就是智能的。
这一学派的代表作首推六足行走机器人,它被看作是新一代的“控制论动物”,是一个基于感知-动作模式模拟昆虫行为的控制系统。另外,著名的研究成果还有波士顿动力机器人和波士顿大狗,如图1-6所示。你可以在网上搜到它们各种炫酷的视频,包括完成体操动作,踹都踹不倒,稳定性、移动性、灵活性都极具亮点。它们的智慧并非来源于自上而下的大脑控制中枢,而是来源于自下而上的肢体与环境的互动。
图1-6 波士顿动力机器人
来源:河马机器人hippo-robot.com
行为主义学派在诞生之初就具有很强的目的性,这也导致它的优劣都很明显。其主要优势便在于行为主义重视结果,或者说机器自身的表现,实用性很强。行为主义在攻克一个难点后就能迅速将其投入实际应用,例如机器学会躲避障碍,就可应用于星际无人探险车和扫地机器人等。不过也许正是因为过于重视表现形式,行为主义侧重于应用技术的发展,无法如同其他两个学派一般,在某个重要理论获得突破后,迎来爆发式增长,这或许也是行为主义无法与连接主义抗衡的主要原因之一。
我们可以简略地认为符号主义研究抽象思维,连接主义研究形象思维,而行为主义研究感知思维。符号主义注重数学可解释性;连接主义偏向于仿人脑模型;行为主义偏向于应用和身体模拟。
1.2.4 历经三次热潮:螺旋上升
人工智能自1956年被提出以来,经过半个多世纪的发展,目前已经取得了长足的进展。但是,人工智能的发展并非一帆风顺,而是经历了从繁荣到衰退,再到繁荣的螺旋式发展过程,其间先后出现了三次发展热潮。
第一次热潮:感知机与专家系统
人工智能的第一次发展高峰出现在20世纪60年代末到70年代初,这次高峰出现的主要原因是人们看到了人工智能系统能够与具体应用相结合,感受到了人工智能的巨大魅力,从而着手将人工智能由理论研究推向实用,其主要标志是专家系统的出现。
在20世纪50年代人工智能刚刚被提出的时候,人工智能的研究主要停留在理论研究阶段,其基本方法是逻辑法,研究方向主要包括自动推理、认知模型、知识表示和推理,人工智能的语言、架构和工具等。最初的人工智能应用于机器翻译、定理证明、通用问题求解、下棋程序、工业反馈控制、机器人等领域。
1957年,康奈尔大学的实验心理学家弗兰克·罗森布拉特在一台IBM 704计算机上模拟实现了感知机神经网络模型,如图1-7所示。这个模型虽然看上去只是简单地把一组M-P(McCulloch-Pitts)神经元平铺排列在一起,但是依靠机器学习却能完成一部分的机器视觉和模式识别方面的任务,从而推动了人工智能的发展。1959年,牛津大学逻辑学家王浩(Wang Hao)在一台IBM 704计算机上只用9分钟就证明了《数学原理》中超过350条的一阶逻辑全部定理,他也因此成为了机器证明领域的开创性人物。
图1-7 弗兰克·罗森布拉特
20世纪60年代,人工智能相关的研究人员开始把研究重点转移到智能表示、智能推理、智能搜索方向,认为人工智能求解问题的过程是一个搜索的过程,效果与启发式函数有关。这一阶段的主要研究成果包括算法搜索方法、人工智能程序设计语言LISPD、冲突归结原理、语义网络的知识表示方法等。
20世纪60年代末到70年代初,以爱德华·A·费根鲍姆(Edward A. Feigenbaum)为首的一批年轻科学家提出了知识工程的概念,开展了以知识为基础的专家系统的研究与应用。该研究将人工智能推向第一次高潮。当时的学术界认为人工智能时代已经来临,1969年发起的国际人工智能联合会议(International Joint Conferences on Artificial Intelligence,JCAI)汇集了当时学术界的人工智能研究最新成果。这一阶段出现的主要研究成果包括计算机配置专家系统(XCONI)、化学质谱分析系统(DENDRAL)、医疗咨询系统(CADUCEUS)、地质勘探专家系统(PROSPECTOR1)、疾病诊断和治疗系统(MYCIN)、语音理解系统(Hearsay-Ⅱ)等。这一系列专家系统产品的研究和开发,将人工智能由理论研究推向了实用系统。
然而,人们当时对人工智能给予了过高的期望,甚至预言“十年以后人工智能将超越人类思维”。但人工智能受困于领域的局限性、知识的生成困难、经验与数据量的不足等约束,导致专家系统所能解决的问题非常有限,更远谈不上超越人类思维,从而使人们从对人工智能的看法由过高的希望转为失望。
1972年7月,詹姆斯·莱特希尔(James Lighthill)受英国科学研究委员会委托,对人工智能的研究状况进行了总体调查,提供了一个公正的调查报告。调查报告发表于1973年。在这份报告中,莱特希尔批评了人工智能并未实现其宏伟目标。报告指出:人工智能研究及相关领域的大多数工作者都对过去25年所取得的成就感到失望。人们在1950年左右甚至在1960年左右进入该领域,但充满希望的事情远未在1972年实现。迄今为止,该领域没有获得任何其承诺将产生的重大影响的发现。莱特希尔的报告使得英国和美国学术机构对人工智能的信心骤降,在人工智能方面的资金投入也被大幅度削减,最终造成人工智能走入低谷,那段低谷被认为是人工智能的第一个冬天。
第二次热潮:五代机的泡沫
人工智能第二次发展高峰出现在20世纪80年代末到90年代初。这次高峰出现的主要原因是日本政府于1981年启动了第五代机项目,其目标是造出能够与人对话、翻译语言、解释图像、能够像人一样推理的机器。
日本政府为此拔款8.5亿美元支持该项目。日本的第五代机计划也影响了中国学术界。中国学术界在1984年起开始跟进,并于1985年初召开了第一次全国第五代计算机会议,会议就第五代计算机体系结构、知识情报处理、规则和推理以及第五代机的应用(包括机器翻译、机器人、图像处理等)等方面展开深入研讨。从1986年起,中国把智能计算机系统、智能机器人和智能信息处理等重大项目列入国家高技术研究发展计划(863计划),这标志着中国将人工智能作为了重点研究领域。
20世纪80年代,针对特定领域的专家系统在商业上获得成功应用,专家系统及其工具越来越成熟和商品化。同时,霍普菲尔德神经网络和反向传播神经网络的提出,使得人们对人工智能的信心倍增,如图1-8所示。1987年,美国召开第一次神经网络国际会议,学术界及企业界共1500余人参加了该会议。会议主要议题包括神经计算机设计、神经计算机功能、神经计算机的软件模拟、神经计算机芯片、人工智能与神经网络等。会上宣布成立国际神经网络协会并决定出版刊物《神经计算机》(Neuro Computer),该会议掀起了神经网络研究的热潮。神经网络的出现解决了非线性分类和学习问题,这使神经网络迅速发展,出现了语音识别、机器翻译等系列研究项目,各国在神经网络方面的投资也逐渐增加。
图1-8 霍普菲尔德神经网络
有学者评论,20世纪80年代到90年代,这一阶段人工智能的特点是建立在对分门别类的大量知识的多种处理方法之上,但存在着应用领域过于狭窄。更新迭代和维护成本非常高,缺乏海量数据训练机器等问题。
1992年,日本政府宣布第五代机项目失败,结束了为期10年的研究。一个主要的原因是,在日本学者全力研究面向人工智能计算机的同时,美国等国家在通用计算机方面的发展步伐非常大,计算机的速度及其并行效率都有明显的提高,使得日本专用计算机所表现出来的推理速度反倒被高速的通用计算机所秒杀。西方对日本第五代机计划的评价是:“对于日本来说,问题在于计算机行业变化如此之快,以至于第五代机,采取的技术道路(在1982年似乎是明智的选择)在1992年之前与计算机工业的方向相矛盾......但是如今,很少有人需要人工智能专用计算机,而更喜欢功能强大的通用计算机”。
事实上,在中国也存在着同样的技术路线的争论。一方面人们在研究通用型高性能巨型机,例如国防科大的银河计算机,另一方面人工智能研究人员在研究支持人工智能的专用机,包括Prolog推理机、数据库机、产生式计算机、数据流驱动计算机等,但只有通用计算机以其强大的生命力及适用性真正地占据了市场,而其他一些人工智能专用计算机都是昙花一现。
第五代机的相关研究不仅重塑了人们对人工智能的看法,也将人工智能发展所面临的困难都展现了出来。凡事都有两面性,虽然知识导入使人工智能发展到了一个新高度,但其也将知识描述的困难和复杂性展现得淋漓尽致。当时人们面临一个很大的问题:如果人工智能的所有知识都由人类输入,那么需要输入的内容将是无穷无尽的。
与此同时,神经网络本身缺少相应的严格数学理论支持,反向传播神经网络存在梯度消失问题。另外,当时的专家系统对领域要求苛刻,不能跨界,而真实的应用常常并不完全受限于确切的领域,这使得专家系统的实用性变差,再就是专家系统的知识库构建困难,因为从事人工智能的人员不懂领域知识,而掌握领域知识的专家不知道如何将他们的知识转化为专家系统所需要的形式,这也是缺乏令人赞叹不已的人工智能应用成果的原因之一。
20世纪90年代以后,计算机发展趋势逐渐演化为小型化、并行化、网络化以及智能化,人工智能技术逐渐与多媒体技术、数据库技术等主流技术相结合,并融合在主流技术之中,旨在使计算机更聪明、更有效、与人更接近,人工智能就如同一般性的计算机应用一样,不再显示出其独特的光环。第二次热潮过后,人工智能进入第二次低谷。
第三次热潮:深度学习拯救众生
人工智能第三次发展高峰出现在21世纪。这次高峰出现的主要原因是深度学习技术的出现,解决了神经网络学习过程中的梯度消失和梯度爆炸等问题,以及深度学习的网络深层结构能够使其自动提取并表征复杂的特征,解决了传统方法中通过人工提取特征的问题。
2006年,杰弗里·E·辛顿(Geoffrey E. Hinton)提出深度学习概念以后,掀起了对深度学习研究的热潮,人工智能研究再次爆发,如图1-9所示。这一阶段的主要研究成果包括:2010年,谷歌无人驾驶汽车创下了超过16万公里无事故的纪录。2011年,IBM沃森(Waston)参加《危险边缘》智力游戏击败了最高奖金得主和连胜纪录保持者,2016年,谷歌阿尔法狗(Google AlphaGo)战胜围模九段棋手李世石;2017年,谷歌阿尔法狗战胜世界围棋冠军柯洁,之后阿尔法狗-零(AlphaGo Zero)完全从零开始,不需要任何历史棋谱的指引和人类先验知识的指导,花三天时间自己左右互搏490万个棋局,最终无师自通战胜阿尔法狗。
图1-9 杰弗里·E·辛顿
众多吸引人们眼球的、在局部领域内(特别是属于确定性知识的领域)超过人类的人工智能成果的展示,让人们尤其是外行人员真切地感受到了人工智能的威力,也真切地意识到人工智能已经来到了身边。这使得人工智能在商业市场上备受关注,创业公司层出不穷,投资者竞相追逐。自此人工智能开启第三次热潮,时至今日仍未消退。