人工智能与中医信息技术导论(全国中医药行业高等教育“十四五”创新教材)
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

二、人工智能的历史沿革

在人工智能的发展史中有一些里程碑事件:马文·明斯基(Marvin Minsky)和约翰·麦卡锡(John McCarthy)提出“人工智能”概念;艾伦·纽厄尔(Allen Newell)和赫伯特·西蒙(Herbert Simon)建立用于解决问题和人类认知的符号模型;埃德·费根鲍姆(Ed Feigenbaum)和拉吉·雷迪(Raj Reddy)对专家系统的开发;朱迪亚·珀尔(Judea Pearl)提出概率推理技术;约书亚·本吉奥(Yoshua Bengio)、杰弗里·辛顿(Geoffrey Hinton)和杨立昆(Yann LeCun)使深度学习成为现代计算的关键部分。

(一)人工智能的诞生(1943~1956年)

20世纪40年代,来自数学、心理学、工程学、经济学和政治学等不同领域的一批科学家开始探讨制造人工大脑的可能性。

1.早期电子计算机 艾伦·麦席森·图灵(Alan Mathison Turing)在1936年发表论文《论可计算数及其在判定问题中的应用》(On Computable Numberswith an Application to the Entscheidungsproblem),提出一种将人的计算行为抽象化的数学逻辑机——“图灵机(Turing machine)”,刻画了机械化运算过程的含义。之后图灵又提出“通用图灵机(universal Turing machine)”,成为现代电子计算机的理论模型。

之后,不少人开始着手将“图灵机”的想法实体化。1943~1946年,约翰·穆克里(John William Mauchly)和普雷斯伯·埃克特(J.Presper Eckert)领导开发了世界上第一台通用电子数字计算机——ENIAC(electronic numerical integrator and computer)。约翰·冯·诺依曼(John von Neuman)对ENIAC进行了一些调整,使其具备现代计算机的基本架构,他将这种存储程序逻辑架构称为“冯·诺依曼结构”。

2.早期神经网络 最初的人工智能研究是20世纪30年代末到50年代初的一系列科学进展交汇的产物。神经学研究发现大脑是由神经元组成的电子网络。诺伯特·维纳(Norbert Wiener)的控制论、克劳德·艾尔伍德·香农(Claude Elwood Shannon)的信息论和图灵的计算理论等都暗示了构建电子大脑的可能性。

现在普遍认为人工智能的第一项工作是由沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)在1943年完成的。他们提出“人工神经网络(artificial neural network,ANN)”概念和一种人工神经元模型——MP模型(McCulloch-Pitts model,MP model),开创了人工神经网络研究的时代。1949年,唐纳德·赫布(Donald Hebb)提出赫布学习(Hebbian learning),使神经元具有学习的能力。1951年,明斯基等人建造了第一台神经网络计算器,并将其命名为SNARC(stochastic neural analog reinforcement calculator)。

3.计算机棋类博弈 香农是世界上首批提出计算机能够和人类进行国际象棋对弈的科学家之一。1950年,他发表文章阐述实现人机博弈的方法,并设计了一个计算机国际象棋程序,从而开启了计算机下棋的理论研究,其主要思路在多年后的“深蓝(Deep Blue)”及AlphaGo中仍能看到。

4.图灵测试 图灵在1950年发表的论文《计算机器与智能》(Computing Machinery and Intelligence)中预言了创造出具有真正智能的机器的可能性,针对“智能”这一概念提出了著名的图灵测试(Turing test):如果一台机器能够通过电传设备与人类展开对话而不能被辨别出其机器身份,那么称这台机器具有智能。图灵测试是人工智能哲学方面的第一个严肃提案。

5.符号推理与“逻辑理论家”程序 20世纪50年代中期,随着数字计算机的兴起,一些科学家认为可以进行数字操作的机器也应当可以进行符号操作,而符号操作可能是人类思维的本质。这是创造智能机器的一种新思路。1955年,符号主义代表人物艾伦·纽厄尔和赫伯特·西蒙等人开发了启发式程序“逻辑理论家(logic theorist,LT)”。该程序成功证明了一些数学定理。

6.达特茅斯夏季研讨会 1956年,达特茅斯学院的麦卡锡、明斯基等人把对自动机理论、神经网络和智能研究感兴趣的研究人员召集起来,组织了一个为期两个月的研讨会,会议共有10名与会者。会议提案指出:人工智能研究是基于这样一个猜想进行的,即学习的每个方面或智能的任何其他特征原则上都可以精确地描述,以至于可以用机器来模拟它。会议的主要议题包括自动计算机、如何为计算机编程使其能够使用语言、神经网络、计算规模理论、自我改造、抽象、随机性与创造性等。会议正式使用了人工智能这一术语,标志着人工智能学科的诞生,1956年也因此成为人工智能元年。

(二)人工智能的第一次浪潮(1956~1974年)

达特茅斯夏季研讨会之后出现了人工智能发展的第一次高潮,发展出了符号逻辑,解决了若干通用问题,初步萌芽了自然语言处理和人机对话技术,计算机可以解决代数应用题,证明几何定理,学习和使用英语。当时,研究者们表现出相当乐观的情绪,认为具有完全智能的机器将在20年内出现。

1963年,美国高级研究计划局(Advanced Research Project Agency,ARPA)[即后来的美国国防高级研究计划局(Defense Advanced Research Projects Agency,DARPA)]资助麻省理工学院(Massachusetts Institute of Technology,MIT)200万美元用于MAC项目(The Project on Mathematics and Computation),该项目后来演变为MIT的“计算机科学与人工智能实验室”。1965年,唐纳德·米基(Donald Michie)在爱丁堡大学建立另一个重要的AI实验室。

1.感知机 1957年,弗兰克·罗森布拉特(Frank Rosenblatt)基于赫布学习和神经感知科学背景,提出了一种类似于人类学习过程的学习算法——感知机(perceptron)。这是一种二分类的线性分类模型,可以认为是神经网络和支持向量机的基础。

2.搜索式推理 许多AI程序使用相似的基本算法,即搜索式推理。这种算法为实现目标逐步前进,就像在迷宫中寻找出路,如果遇到了死胡同则进行回溯。这种方法存在局限性,于是研究者使用启发式算法去掉那些不太可能导出正确答案的支路,从而缩小搜索范围。1957年,纽厄尔和西蒙开发了“通用问题求解器”(general problem solver,GPS)。该程序旨在模仿人类解决问题的过程,可能是第一个体现“人性化思考”方法的程序。

3.自然语言理解 AI研究的一个重要目标是人类能够通过自然语言与计算机进行交流。1964年,丹尼尔·鲍勃罗(Daniel G.Bobrow)提出的Student程序是一个早期尝试,它能够解决高中程度的代数应用题。1966年,MIT计算机科学家约瑟夫·魏泽鲍姆(Joseph Weizenbaum)开发的Eliza程序使人与计算机在一定程度上进行自然语言对话成为可能。1968年,特里·温诺格拉德(Terry Winograd)开发了自然语言理解程序Shrdlu,它的学术意义更加深刻,应用范围更广,该程序把当时许多AI技术整合到一起,包括自然语言理解、规划和知识表示等。

(三)人工智能的第一次低谷(1974~1980年)

早期人工智能系统在解决简单问题上的良好表现使研究者们对其过于自信,但这些早期系统在处理困难问题时几乎都失败了。20世纪70年代初,由于研究进展缓慢,对AI的资助大幅缩减。同时,由于明斯基等人在《感知机:计算几何学导论》(PerceptronsAn Introduction to Computational Geometry)一书中暗示感知机具有严重局限,神经网络的研究停滞了十年。

这次低谷有三个方面的原因。第一,许多早期人工智能系统主要是对人类如何执行任务的模仿,而没有对任务进行仔细分析。第二,是缺乏对问题难解性的认识。大多数早期问题解决系统是通过尝试不同的步骤组合找到解决方案,这种策略最初有效是因为简单问题包含的对象很少。在产生计算复杂性理论之前,人们普遍认为扩展到更复杂的问题只需要更快的硬件和更大的内存。未能解决“组合爆炸”是1973年詹姆斯·莱特希尔(James Lighthill)报告中对人工智能的主要批评之一。第三,是用来产生智能行为的基本结构的局限。

但这一时期,AI在逻辑编程、常识推理等领域有所进展。早在1958年,麦卡锡就提出了“纳谏者(Advice Taker)”程序构想,将逻辑学引入AI研究。1963年,艾伦·罗宾逊(J.Alan Robinson)发现了在计算机上实现推理的简单方法:归结(resolution)与合一(unification)算法。20世纪70年代,逻辑编程语言Prolog被成功开发,这为专家系统奠定了基础。1975年,明斯基在论文《知识表示的框架》(A Framework for Representing Knowledge)中提出框架理论,用于人工智能中的“知识表示”。但休伯特·德雷福斯(Hubert Dreyfus)等人针对逻辑方法存在一些批评观点,他们认为人类在解决问题时并没有使用逻辑运算。不过麦卡锡认为,人类怎么思考是无关紧要的,我们真正想要的是解题机器,而不是模仿人类进行思考的机器。

(四)人工智能的第二次浪潮(1980~1987年)

1.专家系统——基于知识的系统 20世纪80年代,专家系统(expert system)和知识处理成为AI研究和应用的焦点。专家系统能够依据一组从专业知识中推演出的逻辑规则在某一特定领域回答或解决问题,实现了AI从理论走向实际、从一般推理策略探讨转向专业知识运用的重大突破。1968年,斯坦福大学的爱德华·费根鲍姆(Edward Feigenbaum)等人合作研发出Dendral系统。该系统能根据化合物的分子式和质谱推断其分子结构,被认为是第一个专家系统。1972年,爱德华·肖特利夫(Edward Shortliffe)等人开发了用于诊断和治疗感染性疾病的医疗专家系统Mycin。该系统第一次使用了知识库的概念,可通过自然语言与用户对话。1980年,卡内基梅隆大学为DEC(Digital Equipment Corporation)设计了Xcon专家系统。专家系统的成功使为之提供支持的产业应运而生。

2.联结主义的重生 1982年,物理学家约翰·霍普菲尔德(John Hopfield)证明,一种新型的人工神经网络(Hopfield网络)能够用一种全新的方式学习和处理信息。同一时期,反向传播(back propagation,BP)算法得到推广,该网络被认为是一种真正能够使用的人工神经网络模型。这些发现使联结主义重获新生。

3.基于行为的机器人 1986年,Brooks介绍了一种新的移动机器人控制体系结构,它的最终目标是控制一个在指定区域活动的机器人,绘制出周围环境的地图,标志着基于行为的机器人学的创立。该学说提出了与基于符号的人工智能完全不同的智能观点和结构。

(五)人工智能的第二次低谷(1987~1993年)

这一次低谷的最早征兆是1987年AI硬件市场需求的突然下跌。Apple和IBM生产的台式机性能不断提升,1987年,其性能已经超过昂贵的Lisp机。另外,随着人工智能的应用规模不断扩大,专家系统所存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。到20世纪80年代晚期,对AI的资助大幅削减。此外,由于期望过高,日本第五代计算机工程在1991年并没有实现。

另一方面,研究者根据机器人学提出了一种全新的人工智能方案。他们相信,为了获得真正的智能,机器必须具有躯体,它需要感知和移动来与这个世界交互。他们号召“自底向上”地创造智能,这一主张复兴了控制论。这一时期有许多认知科学家反对基于符号处理的智能模型,认为躯体是推理的必要条件。

(六)人工智能的平稳发展期(1993~2006年)

20世纪90年代,AI有两个重要发展。一个是蒂姆·伯纳斯·李(Tim Berners Lee)在1998年提出语义网,即以语义为基础的知识网或知识表示,以及其他知识描述语言。这为知识库的知识表达和开放知识实体给出了一个可能的解决方案,但这一思路直到2012年谷歌提出知识图谱后才得到广泛认可。另一个重要发展是统计机器学习理论,包括支持向量机、条件随机场和主题模型等。总体来看,这一时期的趋势是AI平稳发展。

1.里程碑 1997年5月11日,IBM公司的超级计算机“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫(Kasparov),成为人工智能历史上的一个重要里程碑。“深蓝”的背后仍然是人类为国际象棋对弈设计的代码规则,它收集了上百位国际象棋大师的对弈棋谱进行学习,实际上是把一个机器智能问题变成了一个大数据和大量计算的问题。相比之下,Alphabet子公司DeepMind在2017年推出的程序AlphaZero可以通过反复练习来自学成为大师级选手。

2.智能代理 智能代理(intelligent agent)能够感知周围环境并对环境产生影响,它可以进行推理以解释感知信息和求解问题。最简单的智能代理是解决特定问题的程序。

3.支持向量机 1995年,瓦普尼克等人正式提出统计学习理论,创造了支持向量机(support vector machine,SVM)的概念,它在解决小样本、非线性及高维模式识别中具有明显优势。SVM是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(generalized linear classifier),可根据有限的样本信息在模型的复杂性和学习能力间寻求最佳折中,以期获得最好的泛化能力。

4.条件随机场 John Lafferty于2001年提出条件随机场(conditional random fields,CRF),用于文本的分割和标注。CRF最早是针对序列数据分析提出的,现已成功用于自然语言处理、生物信息学、机器视觉及网络智能等领域。

5.语义网 语义网(semantic web)由蒂姆·伯纳斯·李在1998年提出,其核心是通过给万维网上的文档添加能够被计算机所理解的语义(meta data),从而使整个互联网成为一个通用的信息交换媒介。语义网使网络上的数据变得机器可读。

6.主题建模 2003年提出的LDA(latent dirichlet allocation)在主题模型中占有非常重要的地位。它可以将每篇文档的主题以概率分布的形式给出,通过抽取出主题分布来进行主题聚类或文本分类。LDA是一种无监督机器学习,可以用来识别大规模文档集(document collection)或语料库(corpus)中潜藏的主题信息。

(七)人工智能的第三次浪潮(2006年至今)

1.深度学习 2006年,杰弗里·辛顿(Geoffrey Hinton)等人在Science杂志上发表文章,提出“深度学习(deep learning)”概念,就此开启人工智能的第三次浪潮。在深度学习提出后,卷积神经网络(convolutional neural networks,CNN)的表征学习能力得到关注,并随着计算设备的更新得到发展。2012年,辛顿教授利用深度学习在图像分类竞赛ImageNet上以绝对优势战胜巨头谷歌公司。自此,沉寂多年的人工神经网络再次受到重视,并掀起了认知智能浪潮。自2012年的AlexNet开始,得到GPU计算集群支持的复杂卷积神经网络多次成为ImageNet大规模视觉识别竞赛的优胜算法。

2.企业成果 企业在这一阶段的表现尤为突出。2009年,塞巴斯蒂安·特龙(Sebastian Thrun)等人在谷歌开启自动驾驶汽车项目;2009年,蓝脑计划声称已成功模拟部分鼠脑;2011年,IBM的问答计算机系统沃森(Watson)在《危险边缘(Jeopardy)》节目中战胜人类,获得冠军;Apple在2011年推出自然语言问答工具Siri;2016年3月,谷歌DeepMind团队推出的AlphaGo战胜围棋世界冠军李世石,并在2017年战胜排名世界第一的围棋冠军柯洁;2017年10月,DeepMind团队公布最强版阿尔法围棋,代号AlphaGo Zero。这次人工智能浪潮的影响是前所未有的。

3.联邦学习 2016年,谷歌最先提出联邦学习(federated learning),它在多个持有本地数据样本的分散式边缘设备或服务器上训练算法,而不交换其数据样本。这种方法与传统的集中式机器学习技术形成鲜明对比,能够使多个参与者在不共享数据的情况下建立一个共同的、强大的机器学习模型,从而解决数据隐私、数据安全、数据访问权限和异构数据的访问等关键问题。其应用遍布国防、电信、物联网和制药等多个行业。

4.多领域应用 得益于各方面技术的飞速发展,科学与应用之间的鸿沟被打破,AI相关硬件和软件的市场规模逐渐扩大,其应用渗透到生态学模型、经济学研究、疾病预测与新药研发等各个方面,特别是在人脸识别、语音识别、知识问答、人机对弈、无人驾驶等应用领域实现了很大的技术突破,迎来了发展的新高潮。