2.1 人工智能前沿方法
目前的人工智能前沿学习方法主要包括机器学习、群体智能计算、混合增强智能、类脑计算等。
2.1.1 机器学习方法
机器学习方法是实现人工智能的重要手段。依托于统计学习方法的发展,机器学习方法也经历了几十年的发展。机器学习强调使机器自动地从数据中发现规律,从而可以对未知的数据进行预测。机器学习方法主要包括传统机器学习、深度学习、迁移学习、主动学习四大类。
2.1.1.1 传统机器学习
传统的机器学习方法一般来说,按照数据标签的完备性,主要包括有监督学习、半监督学习和无监督学习三类。这里主要介绍有监督学习和无监督学习两类。
(1)有监督学习。有监督学习是从标签化训练数据集中推断出函数的机器学习任务。训练数据由一组训练实例组成。在监督学习中,每一个例子都是由一个输入对象(通常是一个向量)和一个期望的输出值(也被称为监督信号)组成的。监督学习中,最有代表性的任务是分类和回归。常用的算法如图2-1所示。
分类就是通过对已知分类的数据进行训练和学习,找到这些不同类的特征,再对未分类的数据进行分类。分类算法通常适用于预测一个类别(或类别的概率),而不是连续的数值。常用的分类方法主要有逻辑回归、朴素贝叶斯、Adaboost、支持向量机、K近邻、决策树,和随机森林等。简单来说,逻辑回归是一种用于解决二分类(0或1)问题的机器学习方法(Verhulst,1838),用于估计某种事物的可能性。它通过逻辑函数(也称为Sigmoid函数)将预测映射到0~1中间,不仅可以用来进行类别的预测,还可得到目标的近似概率,这对许多需要利用概率辅助判别的任务很有用。朴素贝叶斯是一种基于贝叶斯定理和特征条件独立假设的分类方法(Bayes,1763)。本质上,朴素贝叶斯模型就是一个概率表,通过训练数据更新这张表中的概率。为了预测一个新的观察值,朴素贝叶斯算法可以根据样本的特征值在概率表中寻找最大概率的那个类别。之所以称之为“朴素”,是因为该算法的核心就是特征条件独立性假设(每一个特征之间相互独立),而这一假设在现实世界中基本是不成立的。Adaboost是一种集成学习方法,前一个分类器分错的样本会被用来训练下一个分类器(Rätsch,2001)。集成学习就是将多个弱的学习器结合起来组成一个强的学习器。目前主要有Boosting和Bagging与随机森林两种生成方式。支持向量机是在分类与回归分析中分析数据的监督式学习模型与相关的学习算法(Hearst,1998)。给定一组训练实例,每个训练实例被标记为属于两个类别中的一个或另一个,SVM训练算法创建一个将新的实例分配给两个类别之一的模型,使其成为非概率二元线性分类器。支持向量机最基本的想法就是基于训练集的样本空间中,找到一个划分超平面,将不同类别的样本分开。超平面有很多,我们希望能找到一个边界,在边界范围之内,都存在划分超平面。如图2-2中虚线所示,在虚线之内的任意超平面,都能完全划分出不同类别。而处于虚线之上的向量,我们称为支持向量。因为这两个向量之间的距离,就是我们能找到的具有“最大间隔”的划分超平面。
图2-1 有监督学习常用方法
KNN(图2-3)即最近邻算法(Peterson,2009),思想比较简单,其主要过程为:计算训练样本和测试样本中每个样本点的距离(常见的距离度量有欧式距离、马氏距离等);对上面所有的距离值进行排序;选前k个最小距离的样本;根据这k个样本的标签进行投票,得到最后的分类类别。如何选择一个最佳的K值,这取决于数据。一般情况下,在分类时较大的K值能够减小噪声的影响,但会使类别之间的界限变得模糊。
决策树由一个决策图和可能的结果组成,用来创建到达目标的规划(Friedl,1997)。本质是一棵由多个判断节点组成的树,根据特征集的不同取值,将样本逐层划分并建立规则,直到某一个样本集合内的所有样本属于同一类。在使用模型进行预测时,根据输入参数依次在各个判断节点进行判断游走,最后到叶子节点即为预测结果。优点是决策树易于理解和解释,可以可视化分析,容易提取出规则;可以很好地扩展到大型数据库中,同时它的大小独立于数据库大小;缺点是对缺失数据处理比较困难。
图2-2 支持向量机
图2-3 KNN
随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定(Liaw,2002)。当有一个新的输入样本进入的时候,就让森林中的每一棵决策树分别进行一下判断,看看这个样本应该属于哪一类,然后看看哪一类被选择最多,根据投票结果,就预测这个样本为那一类。
线性回归是处理回归任务最常用的算法之一(Neter,1989)。该算法十分简单,它期望使用一个超平面拟合数据集。如果数据集中的变量存在线性关系,那么其就能拟合非常好。优点是实现简单,计算简单,解释性好,还能通过正则化来降低过拟合的风险;缺点也很明显,不能拟合非线性数据。
(2)无监督学习。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习,无监督学习主要分为聚类和降维,如图2-4所示。
图2-4 无监督学习主要方法
聚类的主要方法有K均值算法和层次聚类。K均值算法是发现给定数据集的k个簇的算法(Hartigan,1979)。簇个数k是用户给定的,每个簇通过其质心即簇中所有点的中心来描述。聚类的度量基于样本点之间的几何距离。层次聚类法试图在不同层次对数据集进行划分,从而形成树形的聚类结构。数据集的划分可采用“自底向上”的聚合策略,也可采用“自顶向下”的分拆策略。代表算法是AGNES(Kaufman,2008),优点是对于簇不再需要假设为类球形,也可以扩展到大数据集。
降维是一种典型的无监督学习方法,其作用是用于从众多的特征中提取出最有代表性的特征。主成分分析算法(Jolliffe,2011)是最常用的降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。
2.1.1.2 深度学习
深度学习是机器学习领域的一个新的研究方向,其核心思想在于模拟人脑的层级抽象结构,通过无监督的方式从大规模数据(例如图像、声音和文本)中学习特征。近年来,深度学习在计算机视觉、语音识别等研究领域取得的巨大成功使得研究者们对其寄予更多的关注(常虹等,2014)。深度学习是相对于浅层学习而言的,传统的机器学习方法,诸如支持向量机(Support Vector Machines,SVMs),Boosting、KNN、决策树等,都是浅层学习方法,而深度学习有更强大的函数拟合能力和更好的泛化能力,其学习的结果比较自然地体现了底层特征到高层特征的演变。例如,深度模型可以表示“图像块或像素点→边缘→部件→物体”的学习过程,而这个过程与生物的视觉感知系统十分契合。同时,深度学习利用大数据来学习特征,比传统的人工构造特征的方法更能够刻画数据的丰富内在信息,从而最终提升分类或预测的准确性。2006年以来,辛顿(Hinton)等一批研究者成功地改变了多层神经网络研究进退维谷的局面(Hinton,2006;Bengio,2007;Ranzato,2007),使得深度学习迅速获得了广泛的关注,迎来了机器学习的新浪潮(余凯,2012)。
卷积神经网络(Convolutional Neural Networks,CNN)(Sermanet,2012)是一种监督学习下的深度学习模型(图2-5),最早受视觉系统结构的启发而提出,其基本思想是在前层网络的不同位置共享特征映射的权重,利用空间相对关系减少参数数目以提高训练性能。卷积神经网络以其局部权值共享的特殊结构和对平移、比例缩放、倾斜等形变的高度不变性,在语音识别和图像处理方面显示出独特的优越性。CNN有三大特点:局部感知,权值共享,多卷积核。卷积神经网络有两种神器可以降低参数数目,一种方法叫作局部感知野。一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。在图2-5中,假如每个神经元只和10×10个像素值相连,那么权值数据为1000000×100个参数,减少为原来的万分之一。而那10×10个像素值对应的10×10个参数,其实就相当于卷积操作。
图2-5 卷积神经
循环神经网络(Recurrent Neural Networks,RNN)(Mikolov,2010)已经在众多自然语言处理(Natural Language Processing,NLP)中取得了巨大成功以及广泛应用。RNN的目的是用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种普通的神经网络对于很多问题却无能为力。例如,你要预测句子的下一个单词是什么,一般需要用到前面的单词,因为一个句子中前后单词并不是独立的。RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。理论上,RNN能够对任何长度的序列数据进行处理。但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关,图2-6便是一个典型的RNN。
图2-6 一个典型的RNN网络示意图
2.1.1.3 迁移学习
迁移学习(Transfer Learning)(Pan,2010;Patel,2015;Weiss,2016)通俗来讲,就是运用已有的知识来学习新的知识,核心是找到已有知识和新知识之间的相似性,用成语来说就是举一反三。由于直接对目标域从头开始学习成本太高,我们故而转向运用已有的相关知识来辅助尽快地学习新知识。例如,已经会下中国象棋,就可以类比着来学习国际象棋;已经会编写Java程序,就可以类比着来学习C++;已经学会英语,就可以类比着来学习法语等。世间万事万物皆有共性,如何合理地找寻它们之间的相似性,进而利用这个桥梁来帮助学习新知识,是迁移学习的核心问题。迁移学习是机器学习领域的一个重要分支。因此,其应用并不局限于特定的领域。凡是满足迁移学习问题情景的应用,迁移学习都可以发挥作用。这些领域包括但不限于计算机视觉、文本分类、行为识别、自然语言处理、室内定位、视频监控、舆情分析、人机交互等。图2-7展示了迁移学习可能的应用领域。
迁移学习按照学习方式可以分为基于样本的迁移(Dai,2007;Afridi,2018),基于特征的迁移(Pan,2011;Long,2013;Zhang,2017),基于模型的迁移(Long,2014;Tan,2017),以及基于关系的迁移(Mihalkova,2007)。基于样本的迁移通过对源域中有标定样本的加权利用完成知识迁移;基于特征的迁移通过将源域和目标域映射到相同的空间(或者将其中之一映射到另一个的空间中)并最小化源域和目标域的距离来完成知识迁移;基于模型的迁移将源域和目标域的模型与样本结合起来调整模型的参数;基于关系的迁移则通过在源域中学习概念之间的关系,然后将其类比到目标域中,完成知识的迁移。随着深度学习方法的大行其道,越来越多的研究人员使用深度神经网络进行迁移学习(Long,2015;Ganin,2015)。对比传统的非深度迁移学习方法,深度迁移学习直接提升了在不同任务上的学习效果。并且由于深度学习直接对原始数据进行学习,所以其对比非深度方法还有两个优势:自动化地提取更具表现力的特征,以及满足了实际应用中的端到端(End-to-End)需求。
图2-7 迁移学习的应用领域
2.1.1.4 主动学习
我们知道对于监督学习任务,要训练好模型,一般有标记的训练数据越多越好。但很多任务里面有标记的数据非常稀少,而且标注过程往往需要专业的知识,耗时耗力,导致代价昂贵。所以我们希望用更少的标注数据,训练出更好的模型。主动学习(Zhou,2017)就是解决这个问题的重要手段。虽然有标记数据很少,但可以廉价获得非常多未标注的数据。在主动学习里有一个标注专家,我们可以迭代地从未标注数据里面挑选出一部分重要数据去标注,从而获得更多有标记数据。所以主动学习的目标是希望用最小标注代价获得最好的学习模型。主动学习最早是由耶鲁大学的Angluni教授提出的(Angluin,1988)。不同于以往的监督学习算法,主动学习首先对少量的已知标签的样本进行学习,然后利用学习得到的分类器对未知样本进行预测并继续选择样本。在反复迭代过程中,已标注样本集被选择性地扩大,同时分类器的性能不断提高,获得较强的泛化能力。由于主动学习能减轻大量人工标注样本的负担,因此近年来主动学习发展迅速,成为各个领域研究的热点。
主动学习一般有两部分组成:训练模块和样本选择模块(King,2004)。训练模块对当前训练集进行学习以构建基准分类器,在初始阶段,初始(基准)分类器实际上是采用传统监督学习方法来构建的,这需要预先提供少量已知标签的样本。选择合适的初始分类器模型可以显著提升初始阶段分类器的性能,根据学习任务的不同,可以选择不同的基准学习算法,如支持向量机算法、最近邻算法、神经网络算法等。图2-8是基于主动查询的主动学习过程。
图2-8 基于主动查询的主动学习过程实例
2.1.2 群体智能计算方法
群体智能的概念源于对自然界中蚂蚁、蜜蜂、鸟类等群居生物行为的观察和研究。它目前被广泛应用于网络舆情预测、路径规划与避障等领域。群体智能是指简单智能的主体通过合作表现出复杂智能行为的特性(唐贤伦,2014)。其中简单智能主体并非不具有智能性或者只具有简单智能性,而是与群体表现出来的智能相对而言的。当没有得到智能群体的整体反馈时,智能个体表现出无序性,只有接收到群体在整个解空间中的引导时,智能个体才会表现出合理有序性。群体智能算法的机制主要模仿自然界中生物群体的行为,其算法迭代机制通常可以归纳为社会合作(Social Cooperation)、自我适应(Self-Adaptation)和竞争(Competition)3个基本环节(王凌,2008)。其中,社会合作是指种群个体在解决问题过程中交换信息和学习的行为。自我适应是指个体在不借助其他个体信息的前提下,通过主动或被动方式不断调整自身状态以更好地适应环境。竞争则是指种群的更新策略,较优的个体有更大的可能获得生存机会。常见的群体智能算法主要包括蚁群算法、粒子群算法、人工蜂群算法等。
(1)蚁群算法(ACO)。蚁群算法是一种随机搜索算法(王凌,2008),用以模拟自然界中蚁群找到从蚁巢到目的地之间最优路径的交互过程。该算法充分考虑了蚁群觅食问题与著名的旅行商问题(TSP)之间的相似性。人工蚁群算法的原理是利用蚂蚁在觅食过程中会在觅食路径上留下信息素的行为来模拟解信息的传递,与此同时考虑信息素浓度与蚂蚁数量之间的正反馈机制从而获得全局最优解。由于蚁群算法在求解能力和搜索更好解的能力方面具有很强的鲁棒性,因此被广泛用于解决各类实际问题,最初主要被应用于求解旅行商问题,此后,逐步应用于求解各种典型的优化问题(陈崚,2002)、水资源规划设计(Zecchin,2005)、配电网络规划(Gomez,2004)以及车辆路径优化问题(Yu,2011)中。
(2)粒子群算法(PSO)。粒子群优化算法是受鸟群捕食行为启发提出的一种新型的群体智能算法。研究者发现鸟群在飞行过程中个体行为看似简单、随机,但整体却呈现出惊人的一致性。不同的个体在保持方向相同的情况下还能够避免发生碰撞。基于这一发现,粒子群优化算法的基本思想是每个粒子的速度和位置更新主要基于两个因素,个体自身经验中的最优解以及当前整个种群经验中的最优解。由于粒子群算法具有搜索速度快、效率高、算法简单的优点,已被广泛应用于各研究领域。粒子群算法在函数优化问题(Parsopoulos,2004)、规划问题(刘钊,2005)、故障诊断(王灵,2007)、决策调度(季一木,2007)、图像处理(唐英干,2007)、通信基站优化(原萍,2004)和建筑物设计(刘弘,2006)等领域都表现出很好的性能。
(3)人工蜂群算法(ABC)。受Tereshko等人提出的蜂群觅食行为模型(Tereshko V,2005)的启发,Karaboga于2005年提出了一种元启发式算法——人工蜂群算法(ABC)。该算法主要由雇佣蜂、非雇佣蜂和蜜源3部分组成,雇佣蜂和非雇佣蜂通过自组织分工行为寻找丰富的蜜源来维持生存。不同于其他的群体智能算法,人工蜂群算法的角色转换和多极值更新策略使其能够避免陷入局部最优值,提高找到全局最优解的可能性。由于人工蜂群算法具有控制参数少、求解精度高和鲁棒性强等优点,已广泛应用于人工神经网络训练、路径规划、系统和工程设计等多个领域。
2.1.3 混合增强智能方法
“混合增强智能”是指将人的作用或人的认知模型引入人工智能系统,形成“混合增强智能”的形态。在这种形态下,人工智能可以更好地发展。在现有的人工智能系统中,我们可以认识到,智能机器服务的对象是人,而人又是“价值判断”的决策者,所以在人工智能的发展过程中,人的干预应该一直存在,并为人工智能提供帮助。混合增强智能的两种形态是人在回路的混合增强智能、基于认知计算的混合增强智能。
(1)人机协同混合增强智能。“人在回路的混合增强智能”(HITL)是将人的作用引入到智能系统中,形成人在回路的混合智能范式。在这种范式中,人和机器都是智能系统中的一部分:当机器给出不确定度较高的问题时,人可以主动介入系统,为系统调整参数并给出该问题的正确且合理的解答,这样可以构成提升系统智能水平的反馈回路。把人的智能和机器的智能同时引入到计算回路中,可以把人对模糊、不确定问题分析与响应的高级认知机制与机器智能系统紧密耦合(如图2-9所示),从而使得二者相互适应,协同工作,形成双向的信息交流与控制,使人的感知、认知能力和计算机强大的运算和存储能力相结合,构成“1+1>2”的智能增强智能形态。这种“1+1>2”的混合增强智能可以通过集成人类感知、认知能力、机器计算和存储能力来实现。最终,可以处理来自大规模、非完整和非结构化知识库的信息,并且可以避免AI技术带来的失控风险。
图2-9 人在回路混合增强智能
资料来源:Zheng et al.,2017
互联网为HITL混合增强智能提供了巨大的创新空间。网络信息处理被一些研究者认为是对高度结构化和标准化的语义信息的处理,他们相信只要人类知识被整理以后,计算机都是可以进行处理的。事实上,互联网上充斥着杂乱无章的知识片段而且大部分都只能由人类来理解。因此,机器无法完成所有的互联网信息处理任务。人类的干预在许多场合仍然是需要的。不同的领域应该建立不同的HITL混合增强智能系统。图2-10展示了一个HITL混合增强智能系统的基本框架。
图2-10 HITL基本框架
资料来源:Zheng et al.,2017
(2)基于认知计算的混合增强智能。在自然界中,人类的智慧无疑是最强健的。基于认知计算的混合增强智能的构建,利用生物激励信息处理系统与现代计算机的有效合作机制进行研究,可为解决人工智能的长期规划和推理问题提供一个新的方法。认知计算混合增强智能的构建应考虑计算体系结构和计算过程。现代计算机是以冯·诺依曼架构为基础的。计算过程是基于计算任务可以由一个符号系统来制定的事实。运行现代计算机是在冯·诺依曼体系结构中通过一个正式模型(软件)进行计算的过程,它可以实现完整和未分化的数据拷贝。对于不同的问题需要不同的解决方案(软件程序)。一旦建立模型后,它的计算能力和它所面临的任务就被确定了。而生物智能的计算结构基于大脑和神经系统,计算过程是不断适应环境或情境的过程,即运用风险判断和价值判断。它要求生物智能系统能够对环境和自身的状态进行建模,然后提供一个“可解释的模型”,该模型包括了形成风险和价值的度量。生物智能是一个进化过程,它还呈现个体的差异,如个人的经验(记忆)、价值取向(心理因素),甚至是微观分化的“神经表达”。经验表明,对于不同的任务,生物智能的计算过程可与其计算结构分离,图2-11展示了认知计算的基础架构。
该框架包括6个相互关联的认知组件,它们是理解、验证、规划、评估、关注和感知。它们中的任何一个都可以作为一个出发点或在一个特定的认知任务下的目标。该系统根据与外界互动所需的信息,选择一个简单或复杂的交互式路径(例如,重复迭代)来实现认知的目标。通常,自上而下的选择性注意力是基于规划的注意力,而自下而上的选择性注意力基本上是基于知觉注意力。基于理解或规划的评价是先验概率(表现为预测),而基于知觉的评价则是后验概率(表现为观察)。简而言之,认知计算的过程是在满足目标任务所需的信息为基础上,不断地与外界互动,逐步开展思维活动,而不是仅限于以知识为基础的处理。
图2-11 认知计算基础架构
资料来源:Zheng et al.,2017
(3)混合增强智能的典型应用场景。人工智能技术已经创造了许多新的产品、应用,并不断改变着人们的工作、学习、生活中的方方面面,它已经成为促进社会经济持续增长和创新发展的推动力。下面介绍几个混合增强智能的典型应用场景。
产业复杂度和风险管理。为管理社会与经济、技术、政策的关系带来的内在复杂性(Fei-Yue,2004),社会中形成了一个商业社会网络和社会化的现代化进程(图2-12)。在这方面,企业需要创新解决方案来重建不同的内部组织职能和运作模型,并优化资源和技术的调度。创新解决方案不仅取决于决策者的能力和认知条件(即拥有的信息量),还依赖于基于技术的社会力量和能力。这些能力是由混合增强智能(Liyanage,2012;Wang,2016)所提供的,它包括先进的人工智能、信息和通信技术(ICT)、社会网络和商业网络。这种混合增强智能集成了组织事件、技术构件和社会来共同创建一个人机交互环境,这一环境提供核心技术以支持学习、理解、推理和决策。混合增强智能的研究可以大大提高现代企业的风险管理能力和价值创造能力,从而提高竞争力。
图2-12 现代商业网络与社会化过程
资料来源:Zheng et al.,2017
在线智能学习。在线学习是混合增强智能的另一个重要应用(Yau,2003;Atif,2015),未来的教育必定是个性化的,而学生也将受益于与在线教育系统之间的交互。如图2-13所示,这样一个在线学习系统是基于CC框架下的混合增强智能系统的。在线学习领域的人机交互不是一个简单的交互界面,而是学习过程中,学生和机器之间知识的持续传授和更新(Marchiori,2008)。在线混合增强智能学习系统将被设计为根据每个学生的知识结构、智力水平和熟练程度提供个性化的教程。该系统的核心是将传统教育转变为个性化定制的学习系统,这将深刻改变知识的形成和传播形式。
图2-13 在线混合增强智能学习系统
资料来源:Zheng et al.,2017
医疗保健。在医疗领域,大量的知识和规则需要被记忆,而其中的大部分都是经验的、复杂的、非结构化且随时间改变着的。而且,医学知识和规则之间存在着复杂的因果关系(Lake,2017)。图2-14显示了病人、精准医疗、保健、诊断和临床实践之间复杂多样的联系。此外,“人类疾病空间”是无法被彻底穷举搜索的,因此有必要建立一个面向医疗保健的混合增强智能系统。
公共安全。当前安全事件呈现出复杂而多样的发展趋势,特别是在诸如国家安全(Allen,2017)、财产安全(Hi’ovská,2012)、网络安全(Shuaibu,2015)、公共安全(Ferreira,2010)和反恐方面。混合增强智能可以提供强大的技术支持和基本的基础设施框架来应对这些日益增加的挑战。通常,异常事件的处理可以分为3部分:预测、检测和后续处置。在异常检测和后续处置过程中,要充分利用人在复杂问题判断方面的智能和AI在海量数据处理方面的能力,从而形成了一种基于人机协同混合增强智能的安全系统。图2-15给出了系统的总体框架。
人机协同驾驶。自动驾驶系统(Varaiya,1993;Waldrop,2015)是一个高度集成的AI系统,也是近年来的研究热点。目前,全自动驾驶仍然面临严峻的技术挑战。20世纪60年代,人机协同驾驶(图2-16)的概念被首次提出。随着智能交通系统、5G通信技术和车辆联网技术的发展,人机协同驾驶已经变得越来越鲁棒和先进(Im,2009)。
图2-14 精准医疗体系
资料来源:Zheng et al.,2017
图2-15 公共安全领域混合增强智能系统基本框架
资料来源:Zheng et al.,2017
图2-16 人机协同驾驶
资料来源:Zheng et al.,2017
2.1.4 类脑计算
以脑认知科学研究成果为基础,借鉴人类感知、认知机理,突破现有计算模式,建立类似人脑的信息组织、存储和处理的计算架构已成为目前人工智能备受关注的大问题。中国目前十分重视类脑研究,并将类脑计算作为国家战略发展的制高点,中国不仅在2015年将脑计划作为重大科技项目列入国家“十三五”规划,还发布了关于脑计划“一体两翼”的总体战略。一体即认识脑(以阐释人类认知的神经基础为主体和核心);两翼即保护脑(预防、诊断和治疗脑重大疾病)和模拟脑(类脑计算)。中国的学术界也展开了对类脑的研究,2015年中科院、清华、北大相继成立“脑科学与类脑智能研究中心”,2017年5月在合肥成立了类脑智能技术及应用国家工程实验室。这些实验室将借鉴人脑机制研究人工智能技术,推进类脑神经芯片、类脑智能机器人等新兴产业发展。
(1)类脑感知。人脑是一个通用智能系统,可以处理视觉、听觉、语言、学习、推理、决策等各类问题。人类的智能感知和思维能力是在成长和学习中自然形成并不断进化的,其自主学习和适应能力是当前计算机难以企及的。因此,人工智能的发展目标是构建人脑一样自主学习和进化、具有类人通用智能水平的智能系统(曾毅,2016)。迄今为止,类脑智能主要研究领域包括类脑感知、自主学习、记忆与计算机制融合、类脑控制等。其中,来源于多模态信息的类脑感知是指类脑智能机器以脑科学和神经科学的研究为基础,使其以类脑的方式实现对外界的感知和自身的控制。人的感知通过视觉、嗅觉、味觉、听觉和触觉等多模态信息得到,对于人类来说,各种感觉系统采集和处理信息的方式都使用了相似的逻辑,类脑感知拟提出一种模拟人脑从多个规模和多个数据源中提取、集成、连接、分析、语义搜索、推理、可视化神经科学数据的方法,最终目的是将感知延伸到认知,它不仅仅是表面的描述,而是可以利用多模态信息感知能力了解信息的隐含意义甚至文化意义。
(2)类脑学习。类脑学习一直是人工智能领域的热门研究课题,现有的神经科学和认知科学认为,一个人一出生的时候不会预见到将来自己需要什么技能,基因不会把一切技能都用遗传的方法事先编程,最好的方法就是不预设任何技能,只提供一个能够学习各种技能的能力,这就是人脑的精妙之处。人的任何一个技能,都是大脑内一系列神经纤维传递的电脉冲信号的组合。解剖表明拥有不同技能的人,其大脑的神经结构非常不同,例如出租车司机大脑内识别方向的区域就特别发达。也就是说,人对于技能的掌握是在大脑硬件层次实现的。研究人员就建立了模拟人脑神经元的神经网络理论模型。
虽然现有神经网络模型从某种尺度初步借鉴了人脑信息处理的部分原理,但总体而言依然是初步的尝试。目前,类脑智能研究将主要依赖于深度学习和强化学习,人们希望类脑智能技术能够充分学习人脑的思维模式,现有的技术仍然需要不断地进步才能够突破人工智能的瓶颈,真正走向类脑智能。
(3)类脑记忆机制与计算融合。近年来推动人工神经网络复兴的深度学习需要大量的数据和高性能计算平台才可以实现,现有计算机每次进行运算时都需要在CPU和内存这两个区域之间反复调用,随着芯片计算能力不断提高,冯·诺依曼遇到瓶颈:当CPU在大量数据上执行简单指令时,数据流量将严重降低整体效率,CPU将会在数据输入或输出时闲置。且传统芯片在工作时,大部分的电能将转化为热能,很多智能设备因芯片耗能太高导致续航能力差,高温和漏电也是难以避免的问题。为了解决CPU大量数据运算效率低且能耗高的问题,目前有两种发展路线:一是延用传统的冯·诺依曼架构,主要以3种类型芯片(GPU、FPGA、ASIC)为代表;二是采用人脑神经元结构设计芯片来提升计算能力,使芯片架构不断逼近人脑,这类芯片被称为类脑芯片。类脑芯片与计算平台研究的动机是通过借鉴脑神经系统的工作原理,实现高性能、低功耗的计算系统,终极目标是达到高智能。目前我国在深度学习芯片体系架构方面不断进行发展和创新,国内AI芯片初创公司燧原科技针对云端数据中心开发的深度学习高端芯片,定位于人工智能训练平台,将采用自主研发的独特创新架构,具有高算力、高能效比、可编程、低成本、支持主流机器学习框架等特点,专为云端AI训练设计和优化。
(4)类脑控制。类脑智能系统在信息处理机制上类似于人脑,认知行为和智能水平上类似人,目标是使机器实现各种人类具有的多种认知能力及其协同控制机制,最终达到或超越人类智能水平。类脑智能机器人以脑科学和神经科学的研究为基础(Oberts,2016),融合了视觉、听觉、思考和执行等能力的综合智能系统,使机器人以类脑的方式实现对外界的感知、学习、记忆与计算相融合和自身的控制。以类脑的方式实现感知与控制的一体化,使得机器人能够模仿外周神经系统感知、中枢神经系统的输出与多层级反馈回路,实现机器人从感知外界信息到自身运动的快速性和准确性,并且赋予机器人对于不同环境和任务的高度适应性。近年来,随着纳米尺寸忆阻器等类脑计算芯片的研究不断发展,拟在类脑芯片研究的基础上,研究基于专用类脑芯片的大规模并行体系结构,实现高效、低功耗、低代价的类脑计算系统体系架构。