1.3 深度学习的发展历程及应用
1.3.1 深度学习的发展历程
作为机器学习的一个重要分支,深度学习近年来在全球范围内都引起了广泛的关注。然而深度学习在火热之前已经经历了一段漫长的发展历程,接下来我们简单了解一下。
1.起源
1943年,心理学家麦卡·洛克和数学逻辑学家皮兹发表论文《神经活动中内在思想的逻辑演算》,在此论文中提出了MP模型。MP模型是模仿神经元的结构和工作原理,构造出的一个基于神经网络的数学模型,本质上是一种“模拟人类大脑”的神经元模型(这里有必要说明的是,我们说的“模拟”,更准确的说法其实应该是“参考”,计算机领域的“人工神经网络”的确受到了生物学上的“神经网络”的启发,但是两者相差万里,没有直接的可比性)。MP模型作为人工神经网络的起源,开创了人工神经网络的新时代,也奠定了神经网络模型的基础。
1949年,加拿大著名心理学家唐纳德·赫布在《行为的组织》中提出了一种基于无监督学习的规则——海布学习规则(Hebb Rule)。海布学习规则模仿人类认知世界的过程建立一种“网络模型”,该网络模型针对训练集进行大量的训练并提取训练集的统计特征,然后按照样本的相似程度进行分类,把相互之间联系密切的样本分为一类,这样就把样本分成了若干类。海布学习规则与“条件反射”机理一致,为以后的神经网络学习算法奠定了基础,具有重大的历史意义。
20世纪50年代末,在MP模型和海布学习规则的研究基础上,美国科学家罗森·布拉特发现了一种类似于人类学习过程的学习算法——感知器学习,并于1957年正式提出了由两层神经元组成的神经网络,即“感知器”。感知器本质上是一种线性模型,可以对输入的训练集数据进行二分类,且能够在训练集中自动更新权值。感知器的提出吸引了大量科学家研究人工神经网络,对神经网络的发展具有里程碑式的意义。
但随着研究的深入,人们发现了感知器模型甚至无法解决最简单的线性不可分问题(例如异或问题)。由于这一不足,再加上没有及时推进多层神经网络,20世纪70年代,人工神经网络进入第一个寒冬期,人工神经网络的发展也受到了很大的阻碍甚至质疑。
2.发展
1982年,著名物理学家约翰·霍普菲尔德发明了Hopfield神经网络。Hopfield神经网络是一种结合存储系统和二元系统的循环神经网络。Hopfield网络也可以模拟人类的记忆,根据选取的激活函数不同,有连续型和离散型两种类型,分别用于优化计算和联想记忆。但该算法由于容易陷入局部最小值的缺陷而并未在当时引起很大的轰动。
直到1986年,深度学习之父杰弗里·辛顿提出了一种适用于多层感知器的反向传播算法,即BP算法。BP算法在传统神经网络正向传播的基础上,增加了误差的反向传播过程,在反向传播过程中不断地调整神经元之间的权值和阈值,直到输出的误差减小到允许范围之内,或达到预先设定的训练次数为止。BP算法解决了非线性分类问题,让人工神经网络再次引起了人们广泛的关注。
但是20世纪80年代计算机的硬件水平有限,运算能力跟不上,以及当神经网络的层数增加时,BP算法会出现“梯度消失”等问题,使得BP算法的发展受到了很大的限制。再加上20世纪90年代中期,以SVM为代表的浅层机器学习算法被提出,并在分类问题、回归问题上均取得了很好的效果,其原理相较于神经网络模型具有更好的可解释性,所以人工神经网络的发展再次进入了瓶颈期。
3.爆发
2006年,杰弗里·辛顿及其学生鲁斯兰·萨拉赫丁诺夫正式提出了深度学习的概念。他们在世界顶级学术期刊Science发表的一篇文章中详细地给出了“梯度消失”问题的解决方案——通过无监督学习逐层训练算法,再使用有监督的反向传播算法进行调优。该方法的提出,立即在学术圈引起了巨大的反响,以斯坦福大学、多伦多大学为代表的众多世界知名高校纷纷投入巨大的人力、财力进行深度学习领域的相关研究,而后又迅速蔓延到工业界。
2012年,在著名的ImageNet图像识别大赛中,杰弗里·辛顿领导的小组以深度学习模型AlexNet一举夺冠。AlexNet采用ReLU激活函数,极大程度地解决了梯度消失问题,并采用GPU极大提高模型的运算速度。同年,由斯坦福大学著名的吴恩达教授和世界顶尖计算机专家Jeff Dean共同主导的深度神经网络——DNN技术在图像识别领域取得了惊人的成绩,在ImageNet评测中成功地把错误率从26%降低到了15%。深度学习技术在世界大赛的脱颖而出,再次进一步吸引了学术界和工业界对深度学习的关注。
随着深度学习技术的不断进步及计算机硬件算力的不断提升,2014年,Facebook基于深度学习技术的DeepFace项目,在人脸识别方面的准确率已经能达到97%以上,跟人类识别的准确率几乎没有差别。这样的结果也再一次证明了深度学习技术在图像识别方面的一骑绝尘。
2016年,谷歌公司基于深度强化学习开发的AlphaGo以4∶1的比分战胜了国际顶尖围棋高手李世石,深度学习的热度一时无两。后来,AlphaGo又接连和众多世界级围棋高手过招,均取得了完胜。这也证明了在围棋界,基于深度学习技术的机器人几乎已经超越了人类。
2017年,基于深度强化学习技术的AlphaGo升级版AlphaGo Zero横空出世,采用“从零开始”“无师自通”的学习模式,以100:0的比分轻而易举地打败了之前的AlphaGo。除了围棋,它还精通国际象棋等其他棋类游戏,可以说是真正的棋类“天才”。此外在这一年,深度学习的相关技术也在医疗、金融、艺术、无人驾驶等多个领域均取得了显著的成果。所以,也有专家把2017年看成深度学习甚至是人工智能发展最为突飞猛进的一年。
深度学习发展到当前已经越来越趋于成熟,因此,无论是科研还是应用,大家也越来越理性,而不是像早些时候,把深度学习视为“万能”,去盲目跟风。当然,深度学习领域也还有许多问题需要解决,还有很多有趣、有挑战性的方向可以研究。
1.3.2 深度学习的应用
深度学习技术不光在学术界,在工业界也有重大突破和广泛应用,其中自然语言处理、语音识别和图像处理应用最广泛。接下来,我们分别来看一下这三个领域的发展现状。
1.自然语言处理
自然语言处理(NLP)是一门交叉科学,旨在让计算机能够“读懂”人类的语言。自然语言处理的基础研究包括分词、词性标注、实体识别、句法分析、语义分析以及文本向量化表示等,其应用领域有文档分类、信息检索、对话机器人、机器翻译、语音识别和合成等。传统的自然语言处理主要利用语言学领域本身的知识结合统计学的方法来获取语言知识。后来伴随着机器学习浅层模型的发展(如SVM、逻辑回归等),自然语言处理领域的研究取得了一定的突破,但在语义消歧、语言的理解等方面仍然显得力不从心。近年来,深度学习相关技术(DNN、CNN、RNN等)取得了显著的进展,在自然语言处理方面的应用也展现出了明显的优势。
从算法上来看,词向量(Word Vector)作为深度学习算法在自然语言领域的先驱,有着极其广泛的应用场景,其基本思想是把人类语言中的词尽可能完整地转换成计算机可以理解的稠密向量,同时要保证向量的维度在可控的范围之内。在Bahdanau等人利用LSTM模型结合一些自定义的语料,解决了传统模型的“Out of dictionary word”问题之后,基于深度学习的自然语言处理较于传统方法的优势更为明显。而谷歌公司于2018年10月底发布的BERT模型,算是一个里程碑。目前,基于深度学习的自然语言处理在文本分类、机器翻译、智能问答、推荐系统及聊天机器人等方向都有着极为广泛的应用。
2.语音识别与合成
语音相关的处理其实也属于自然语言处理的范畴,目前主要是语音合成(Text to Speech,TTS)和语音识别(Automated Speech Recognition,ASR)。语音识别应该是大家最为熟知的、也是应用最为广泛的。同自然语言处理类似,语音识别也是人工智能和其他学科的交叉领域,其所涉及的领域有模式识别、信号处理、概率论、信息论、发声原理等。近年来,随着深度学习技术的兴起,语音识别取得显著的进步,基于深度学习的语音技术不仅从实验室走向了市场,更得到了谷歌、微软、百度及科大讯飞等众多科技公司的青睐。语音输入法、家用聊天机器人、医疗语音救助机、智能语音穿戴设备等具体的应用场景层出不穷。
事实上,在深度学习算法还未普及之前的很长一段时间,语音识别系统大多采用高斯混合模型(GMM)这一机器学习浅层模型完成数据的量化和建模。由于该模型可以精确地量化训练集并对数据有较好的区分度,所以长期在语音识别领域占主导地位。直到2011年,微软公司推出了基于深度学习的语音识别系统,模拟人类大脑分层提取数据特征,使得样本特征之间的联系更加密切,完美地克服了GMM模型在高维数据处理方面的不足。目前,基于深度神经网络的模型仍然广泛应用在语音相关的各个领域中。
3.图像领域
事实上,图像领域目前算是深度学习应用最为成熟的领域。也正是由于深度学习算法在ImageNet图像识别大赛中远超其他机器学习算法,以巨大优势夺魁,才推动了深度学习发展的第三次浪潮。目前,通过卷积神经网络(CNN)构建的图像处理系统能够有效地减小过拟合、很好地识别大像素数图像。融合GPU加速技术后,神经网络在实际中能够更好地拟合训练数据,更快、更准确地识别大部分的图片。总而言之,深度学习模型和图像处理技术的完美结合,不仅能够提高图像识别的准确率,同时还可以在一定程度上提高运行效率,减少一定的人力成本。