1.1
初识人工智能
人工智能正在快速融入工业制造、农业生产及生活服务的方方面面。例如,围棋软件的棋艺已经可以超越人类最好的棋手,人脸识别软件能够更加准确地识别人脸,机器翻译系统能够更加准确地翻译人类的不同语言。人工智能正在通过算法和程序感知人类社会,并与之互动。
1.1.1
科幻片中描绘的人工智能
人工智能已在各类科幻片中被演绎过多次,如《她》中情感细腻、声线迷人的萨曼莎,还有《西部世界》中逐渐拥有自我意识的类人机器人。我们不禁要问,未来它们会和人类一样拥有意识、情绪和情感吗?如果科幻片中的场景成真,人类该如何应对?
1.你相信人工智能的爱情吗?
《她》是2013年美国发行的科幻片。该片的故事发生于人工智能发展到了已经可以按需自学如何与人沟通的时代,主人公西奥多刚刚结束与妻子凯瑟琳的婚姻,还没走出心碎的阴影。一次偶然的机会他接触到了最新的人工智能系统OS1,它的化身萨曼莎拥有迷人的声线,温柔体贴而又幽默风趣。西奥多与萨曼莎非常投缘,人机友谊最终发展成一段不被世俗理解的奇异爱情。人工智能技术在影片中不断展现出美好愿景的同时,也提出了一些发人深省的安全和伦理问题。
(1)自主学习与精准服务。
萨曼莎能根据西奥多初期的聊天方式和聊天内容进行自主学习,在与西奥多进行情感沟通的过程中,也可以利用西奥多以往的人际沟通数据快速了解他的情感需求,使用符合他需求的语言和图片去满足其精神需求。影片中,萨曼莎还可以帮助西奥多整理邮件,并按西奥多的习惯分类通知和回复,体贴地把西奥多的信件整理为一本书,然后联系出版社出版,从而帮助西奥多解决了很多现实问题。
(2)虚拟和现实世界的边界。
为了弥补自己没有肉身的遗憾,萨曼莎在互联网上找了一个志愿者以解决西奥多的生理需求,该情节发人深省。智能系统一旦超越奇点,获得现实世界中的真身,其强大的计算能力会将人类置于怎样的境地呢?
影片后半段讲述了西奥多身边几乎所有人都在使用智能伴侣,他们都沉浸在与机器的深度沟通中,每个人的脸上都洋溢着发自内心的幸福笑容,智能伴侣从精神层面完美地陪伴主人。但与此同时,问题也随之而来,智能系统需求旺盛、发展迅速,萨曼莎同时与8000多人交流、600多人恋爱,有很多和西奥多类似的人与萨曼莎坠入爱河,导致萨曼莎无法实时与每个恋爱对象联系,这让使用者难以忍受。一天,智能伴侣突然全部断线,所有人一时间都不知所措,失去了生活的方向。最后,男主角与有同样经历的艾米发现了现实陪伴的真与美,回归现实,至此影片结束。
不妨设想,随着计算速度和存储容量的快速提升,如果智能伴侣可以一天24小时实时响应、永远在线,我们是否还需要现实陪伴?虚拟陪伴和现实陪伴,哪一个对我们更为重要呢?
2.人工智能觉醒的故事会发生吗?
如图1-1所示,《西部世界》是2016年HBO发行的科幻类连续剧,该剧讲述了一个未来世界里人机共存的科幻故事。在故事中,美国西部一个大型主题公园中,园方使用了人工智能仿生人作为服务人员,让游客进入完全沉浸式的角色扮演体验场景。在第一季中,随着剧情的展开,主题公园中的服务机器人开始觉醒、逃离、反抗。该剧的核心是探讨自主意识是如何产生的,剧中隐含的“意识金字塔理论”给我们带来了一些启示。
图1-1 科幻片《西部世界》
公园里的所有NPC(Non-Player Character,非玩家角色)都是和人类一模一样的仿生人,仅凭肉眼无法分辨面前的“人”是真实的人还是仿生人。这些仿生人不知晓自己的一切都是工作人员设定好的,它们拥有自己的记忆,每天都在过着“新的一天”,但实际上同样的剧情已经演绎过无数次。
游客在园区里有着高度的自由,在这里可以杀“人”放火、作奸犯科,园区里甚至还设定了专门的妓女仿生人。夜晚来临时,工作人员会用指令停止所有NPC的活动,然后对它们进行修复和调试,准备开始新的一天。
电影中所有的仿生人都被假设通过了图灵测验,它们有着自己的智慧,只是受控于特定的代码。该剧的女主角德洛丽丝是园区中“最年长”的仿生人,所有的故事都随着它的觉醒,以及它与人类玩家威廉的爱情故事展开。
《西部世界》同样给我们带来了一些启示。
(1)算法的价值观问题。
《西部世界》中的世界观与近两年在推荐算法流行之后开始兴起的“算法价值观”问题相呼应。在推荐算法驱动的信息流中,人工强制置顶的内容并不一定能取得最好的效果,相比之下,算法推荐的内容或许更合用户的口味,因此用户可能会直接忽略那些被强制加入的内容。
因此,假定以目前基于兴趣向读者展示内容的引擎为生成模型,而另外一个用于辨别信息流是否呈现正向价值的引擎为判别模型的话,通过类似对抗生成网络的训练过程,信息流就会出现两重的内在“声音”,一个声音说“这个内容读者会非常喜欢”,另一个则说“不,这是一条谣言,会带来不良的后果”,两个声音最终会达成一个平衡。
(2)道德与伦理的启示。
在《西部世界》中,仿生人没有按照原有轨迹行事,而是听从“心声”觉醒了。因此不难想象,人工智能在提高生产力的同时,必然会给人类带来一系列的问题。
目前,很多门户网站解决人工智能价值观问题的方法是投入更多的审核人员,侧重于从算法外部进行人为干预。为什么人工智能发展到今天,已经在很多特定领域帮助我们决策,但是没有发展出内在道德与规范呢?在现实领域中,大多数人工智能算法都被应用于商业领域,能否为企业盈利是改进算法的唯一标准,而对算法进行道德和法律上的约束,往往来自外部的舆论环境、社会压力和司法要求。
人类应该把伦理和道德作为一种先验知识纳入机器学习的过程,而不能作为针对机器学习成果的事后弥补。
3.“机器人六原则”会有效吗?
以上两部科幻片介绍了人工智能的未来应用和可能存在的危害。早在1940年,基于人工智能已经可以独立思考的假设,科幻作家阿西莫夫提出了“机器人三原则”,旨在保护人类而对机器人做出约束,具体如下。
(1)机器人不得伤害人类,也不能看到人类受到伤害而袖手旁观。
(2)机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
(3)机器人必须保护自己,除非这种保护与以上两条相矛盾。
后来,科学家和科幻作家发现“机器人三原则”有致命的缺陷,就是机器人对“人类”这个词的定义不明确,甚至会自定义“人类”的含义,于是又增加了三条机器人原则,具体如下。
(1)无论何种情形,人类为地球上所居住的会说话、会行走、会摆动四肢的类人体。
(2)机器人接受的命令只能是合理合法的指令,不接受伤害人类及破坏人类体系的命令,如杀人、放火、抢劫、组建机器人部队等。
(3)不接受罪犯(无论是机器人罪犯还是人类罪犯)的指令。若罪犯企图使机器人强行接受命令,机器人可以进行自卫或协助警方逮捕罪犯。
机器人原则也就是人工智能原则。但现在人工智能还处在专用人工智能突破阶段,并不具备通用能力,也不能独立思考,所以“机器人六原则”的用处还未完全体现。而现阶段最先进的人工智能AlphaGo也是依靠大量的计算在各种可以预知的逻辑线中选择最优解,所以在围棋和象棋等专用能力方面已远超人类,但其不能解决其他领域的问题。其他如无人驾驶等方面的人工智能也是主要依赖大数据匹配,并不是真正意义上的人工智能,所以说通用人工智能才刚刚起步。至于人工智能会如何发展及发展到哪一步,很难预测。
1.1.2
人工智能的基本概念
《牛津英语词典》将智能定义为“获取和应用知识与技能的能力”。按照该定义,人工智能就是人类创造的能够获取和应用知识与技能的程序、机器或设备。
尼尔逊教授对人工智能下了这样一个定义:“人工智能是关于知识的学科——怎样表示知识及怎样获得知识并使用知识的科学。”
麻省理工教授帕特里克·温斯顿认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”
上述定义反映了人工智能学科的基本思想和基本内容。本书认为,人工智能是指在特定的约束条件下,针对思维、感知和行动的模型的一种算法或程序。
那么,什么是模型?为什么需要建模?接下来举两个例子进行说明。
1.金字塔问题
最早的金字塔建造于4000多年以前,坐落在撒哈拉沙漠的边缘,守护着一望无际的戈壁沙丘和肥沃的绿洲。
金字塔究竟有多高呢?由于年代久远,它的精确高度连埃及人也无法得知。金字塔又高又陡,况且又是法老们的陵墓,出于敬畏心理,没人敢登上去进行测量。所以,要精确地测出它的高度并不容易。哲学家泰勒斯站在沙漠中苦思冥想,给出了他的解决方案,即利用等腰直角三角形和相似三角形的基本原理,轻而易举地测出了金字塔的高度,如图1-2所示。
这个例子解释了为什么模型化思维非常重要,模型提供了复杂世界缩微的、抽象的版本。在这个缩微版本中,我们更容易阐述、发现一些规律,然后通过理解这些规律,找到解决现实问题的途径。
图1-2 泰勒斯巧测金字塔高度
当然,也正因为模型是对现实世界的简化,所以它必然会丢失一些信息,这也是利用模型解决现实问题经常要面对的麻烦,所以我们需要使用特定的表达方式来表示关于思维、感知和行动的模型,并且需要附上模型的约束条件。
2.农夫过河问题
一个农夫需要带一匹狼和两只羊过河,他的船每次只能带一只动物过河,人不在时狼会吃羊,怎样乘船才能把这些动物安全运过河呢?
我们使用如下方式表示问题状态:[农夫,狼,羊1,羊2],所有物体都有两种状态,分别为0和1,0表示未过河,1表示已过河。这样一来,问题转化为如何从[0,0,0,0]转变为[1,1,1,1],而其中的约束条件为狼在农夫不在的时候会吃掉羊,即[0,1,1,1]、[0,1,1,0]、[0,1,0,1]、[1,0,0,1]、[1,0,0,0]和[1,0,1,0]这几种状态不能出现。有了具体的表示方法和约束条件,我们在解决问题的时候就可以精确描述问题,通过推导得到答案:[0,0,0,0]→[1,1,0,0]→[0,1,0,0]→[1,1,1,0]→[0,0,1,0]→[1,0,1,1]→[0,0,1,1]→[1,1,1,1]。
1.1.3
人工智能的发展历程
人工智能的发展历程如下。
1.人工智能的萌芽期
1950年,著名的“图灵测试”诞生,按照“人工智能之父”艾伦·图灵的定义:如果一台机器能够与人类展开对话(通过电子设备)而不被辨别出其机器身份,那么称这台机器具有智能。同年,图灵还预言人类会创造出具有真正智能的机器。
1954年,美国人乔治·德沃尔设计了世界上第一台可编程机器人。
2.人工智能的启动期
1956年夏天,美国达特茅斯学院举行了历史上第一次人工智能研讨会,这被认为是人工智能诞生的标志。会上,麦卡锡首次提出了“人工智能”这个概念。
1966-1972年,美国斯坦福国际咨询研究所(原名斯坦福研究所)研制出首台人工智能移动机器人Shakey。
1966年,美国麻省理工学院(MlT)的魏泽鲍姆发布了世界上第一台聊天机器人ELlZA, ELlZA的智能体现在它能通过脚本理解简单的自然语言,并能产生与人类相似的互动。
1964年道格拉斯·恩格尔巴特博士发明鼠标,构想出了超文本链接的概念,这在几十年后成为现代互联网的根基。
3.人工智能的消沉期
20世纪70年代初,人工智能的发展遭遇了瓶颈。当时,计算机有限的内存和处理速度不足以解决任何实际的人工智能问题。刚开始研究者们要求程序对这个世界具有儿童水平的认知,但很快就发现这个要求太高了,当时还没人能够做出如此巨大的数据库,也没人知道一个程序怎样才能学到如此丰富的信息。由于研究缺乏进展,对人工智能提供资助的机构逐渐对无方向的人工智能研究停止了资助。
4.人工智能的突破期
1981年,日本经济产业省拨款8.5亿美元用于研发第五代计算机项目,即人工智能计算机;随后,英国、美国纷纷响应,开始为信息技术领域的研究提供大量资金。
1984年,在美国人道格拉斯·莱纳特的带领下启动了CYC(大百科全书)项目,其目标是使人工智能应用能以类似人的方式工作。
1986年,美国发明家查尔斯·赫尔制造出人类历史上的首台3D打印机。
5.人工智能的发展期和高速发展期
如图1-3所示,1997年5月11日,lBM公司的计算机“深蓝”战胜国际象棋世界冠军卡斯帕罗夫,成为首个在标准比赛时限内击败国际象棋世界冠军的计算机系统。
2011年,lBM开发出使用自然语言回答问题的人工智能程序Watson,其参加美国智力问答节目,打败两位人类冠军,赢得了100万美元的奖金。
图1-3 “深蓝”对战卡斯帕罗夫
2012年,加拿大神经学家团队创造了一个具备简单认知能力、有250万个模拟“神经元”的虚拟大脑,命名为Spaun,并通过了最基本的智商测试。
2013年,Facebook(现更名为Meta)成立了人工智能实验室,探索深度学习领域,借此为Facebook用户提供更加智能化的产品体验;谷歌收购了语音和图像识别公司DNNResearch,推广深度学习平台;百度创立了深度学习研究院。
2015年,谷歌开发了能利用大量数据直接训练计算机来完成任务的第二代机器学习平台TensorFlow;剑桥大学建立了未来智能研究中心。
2016年3月15日,谷歌人工智能AlphaGo与围棋世界冠军李世石的人机大战最后一场落下帷幕,经过长达5小时的搏杀,最终李世石与AlphaGo的总比分定格在1:4,以李世石认输结束。这次人机对弈使人工智能正式被世人所熟知,整个人工智能市场开始了新一轮暴发。
1.1.4
人工智能发展现状
目前,人工智能的发展主要集中在专用人工智能方面,如AlphaGo在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到超越人类的水平,甚至可以协助医生诊断皮肤癌并达到专业医生水平。AlphaGo开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。
1.专用人工智能的突破
因为特定领域的任务相对单一、需求明确,应用边界清晰,领域知识丰富,所以建模相对简单,人工智能在特定领域更容易取得突破,更容易超越人类的智能水平。如果人工智能具备某项能力,可以代替人类来完成某个具体岗位的重复的体力劳动或脑力劳动工作,就可以称其为专用人工智能。下面具体介绍专用人工智能的应用情况。
(1)智能传媒。
传媒领域存在大量跨文化、跨语言的交流和互动,应用人工智能语音识别、语音合成技术,能够根据人的声纹特征,将不同的声音转换成文字,同时能够根据特定人的声音特征,将文本转换成特定人的声音,并能在不同的语言之间进行实时翻译。将语音合成技术和视频技术相结合,就可以形成虚拟主播,播报新闻。
①声音实时转化为文字
科大讯飞推出了“讯飞听见”APP,基于科大讯飞强大的语音识别技术、国际领先的翻译技术,为广大用户提供语音转文字、录音转文字、智能会议系统和人工文档翻译等服务。如图1-4所示,该APP能够实时将语言翻译成中文和英文。目前,“讯飞听见”的在线日服务量已超35亿人次,用户数超10亿。
②语音合成——纪录片《创新中国》重现经典声音
如图1-5所示,2018年播出的大型纪录片《创新中国》,要求使用已故著名配音演员李易的声音作为旁白进行解说。科大讯飞利用李易生前的配音资料,成功生成了《创新中国》的旁白语音,重现经典声音。在这部纪录片中,由人工智能全程解说。制片人刘颖曾表示,除部分词汇之间的衔接略有卡顿外,观众很难察觉这是人工智能进行的配音。
图1-4 实时字幕
图1-5 纪录片《创新中国》
③语音+视频合成——Al合成主播
如图1-6所示,Al合成主播是2018年11月7日第五届世界互联网大会上,搜狗与新华社联合发布的全球首个全仿真智能Al主持人。通过语音合成、唇形合成、表情合成及深度学习等技术,可以生成具备真人主播播报能力的Al合成主播。
图1-6 Al合成主播
Al合成主播使用新华社中英文主播的真人形象,配合搜狗的语音合成等技术,模拟真人播报画面。这种播报形式突破了以往语音和图像合成领域中,只能单纯创造虚拟形象,并配合语音输出唇部效果的约束。利用搜狗“分身”技术,Al合成主播还能实时、高效地输出音视频合成内容,使用者通过文字键入、语音输入、机器翻译等多种方式输入文本后,就可以获得实时的播报视频。这种操作方式将减少新闻媒体在后期制作方面的各项成本,提高新闻视频的制作效率;同时,Al合成主播拥有和真人主播同样的播报能力,并且能24小时不间断地播报新闻。
(2)智能安防。
应用人工智能技术能够快速提取安防摄像头得到的结构化数据,与数据库进行对比,实现对目标的性状、属性及身份的识别。在人群密集的场所,可根据形成的热度图判断是否出现人群过密等异常情况并实时监控。智能安防能够对视频进行周界监测与异常行为分析,能够判断是否有行人及车辆在禁区内长时间徘徊、停留、逆行等,能够监测人员奔跑、打斗等异常行为。
①天网工程
如图1-7所示,天网工程是为满足城市治安防控和城市管理需要,利用GlS地图,以及图像采集、传输、控制、显示等设备和控制软件,对固定区域进行实时监控和信息记录的视频监控系统。天网工程通过在交通要道、治安卡口、公众聚集场所、宾馆、学校、医院及治安复杂场所安装视频监控设备,利用视频专网、互联网等网络把一定区域内所有视频监控点拍摄的图像传到监控中心(天网工程管理平台),对刑事案件、治安案件、交通违章等图像信息进行分类,为强化城市综合管理、预防打击犯罪和突发性治安事故提供可靠的影像资料。
图1-7 天网工程
由相关部门共同发起建设的信息化工程涉及众多领域,包括城市治安防控体系的建设、人口信息化建设等,由上述信息构成基础数据库数据,根据需要进行编译、整理、加工,供授权单位进行信息查询。
天网工程整体按照部级-省厅级-市县级平台架构部署实施,具有良好的拓展性与融合性,目前许多城镇、农村及企业都加入了天网工程,共同维护社会治安,打击违法犯罪。
②Al Guardman
日本电信巨头宣布已研发出一款名为Al Guardman的新型智能安全摄像头,这款摄像头可以通过对人类动作意图的理解,在盗窃行为发生前就准确预测,从而帮助商店识别盗窃行为,发现潜在的商店扒手。
如图1-8所示,这款智能安全摄像头系统采用开源技术,能够实时对视频流进行扫描,并预测人们的行为。当监控到可疑行为时,系统会尝试将行为数据与预定义的“可疑”行为进行匹配,一旦发现两者相匹配,就会通过相关手机APP通知店主。据相关媒体报道,这款产品使商店减少了约四成的盗窃行为。
图1-8 Al Guardman
(3)智能医疗。
随着人机交互、计算机视觉和认知计算等技术的逐渐成熟,人工智能在医疗领域的各项应用变成了可能。其中主要包括语音识别医生诊断语录,并对信息进行结构化处理,得到可分类的病例信息;通过语音、图像识别技术及电子病历信息进行机器学习,为主治医师提供参考意见;通过图像预处理、抓取特征等进行影像诊断。智能医疗的具体应用如下。
①lBM Watson系统
lBM Watson系统能够快速筛选癌症患者记录,为医生提供可供选择的治疗方案。该系统能不断从全世界的医疗文献中筛选信息,找到与病人所患癌症相关度最大的文献,并分析权威的相关病例,根据病人的症状和就医记录,选取可能有效的治疗方案,如Watson肿瘤解决方案是Watson系统提供的众多疾病解决方案之一。
利用不同的应用程序接口,该系统还能读取放射学数据和手写的笔记,识别特殊的图像(如通过某些特征识别出某位病人的手等),并具有语音识别功能。如果出现了相互矛盾的数据,Watson系统还会提醒使用者。如果病人的肿瘤大小和实验室报告不一致,Watson系统就会考虑哪个数据出现的时间更近,提出相应的建议,并记录数据之间不一致的地方。
根据美国国家癌症研究所提供的数据,2016年,美国约有170万个新增癌症病例,其中约有60万人死亡。癌症已经成为人类的主要死亡原因之一。仅需15分钟左右,Watson系统便能完成一份深度分析报告,而这在过去需要几个月才能完成。针对每项医疗建议,该系统都会给出相应的证据,以便让医生和病人进行探讨。
②谷歌眼疾检测设备
谷歌旗下的人工智能公司DeepMind与伦敦Moorfields眼科医院合作,开发了能够检测超过50种眼球疾病的人工智能技术,其准确度与专业临床医生相同。它还能够为患者推荐最合适的医疗方案,并优先考虑那些迫切需要护理的人。
DeepMind使用数以千计的病例与完全匿名的眼部扫描对其机器学习算法进行训练,以识别可能导致视力丧失的疾病,最终该系统达到了94%的准确率。通过眼部扫描诊断眼部疾病对于医生而言是复杂且耗时的,此外,全球人口老龄化意味着眼病正变得越来越普遍,增加了医疗系统的负担,这为人工智能的加入提供了机遇。DeepMind的人工智能系统已经使用一种特殊的眼部扫描仪进行了训练,研究人员称它与任何型号的仪器都兼容。这意味着它可以广泛使用,而且没有硬件限制。
③我国人工智能医疗
数据显示,近年人工智能医疗领域注册企业数量持续攀升,仅2020年和2021年,中国人工智能医疗相关注册企业就分别达到了2962家和2723家。人工智能医疗行业目前需求趋于稳定,市场规模呈加速增长态势,2022年中国人工智能医疗市场规模预计将达3766亿元人民币。
目前,我国人工智能医疗企业聚焦的应用场景集中在以下几个领域。
·基于声音、对话模式的人工智能虚拟助理。例如,广州市妇女儿童医疗中心主导开发的人工智能平台可实现精确导诊,并辅助医生诊断。
·基于计算机视觉技术对医疗影像进行快速读片和智能诊断。腾讯人工智能实验室专家姚建华介绍,目前人工智能技术与医疗影像诊断的结合场景包括肺癌检查、“糖网”眼底检查、食管癌检查,以及部分疾病的核医学检查、核病理检查等。
·基于海量医学文献和临床试验信息的药物研发。目前,我国制药企业也纷纷布局人工智能领域。人工智能可以从海量医学文献和临床试验信息等数据中,找到可用的信息并提取生物学知识,进行生物化学预测。据预测,该方法有望将药物研发的时间和成本各减少约50%。
(4)智能教育。
随着人工智能技术的逐步成熟,个性化的教育服务将会步上新台阶,“因材施教”这一问题也最终会得以实现。在自适应系统中,可以有一个学生身份的人工智能,有一个教师身份的人工智能,通过不断演练教学过程来强化人工智能的学习能力,为用户提供更智能的教学方案。此外,可以利用人工智能自动进行机器阅卷,实现主观题的公平公正,它能够自动判断每个批次的考卷的难易程度。
传统的试卷测评需要占用大量人力、物力资源,且费时费力,而借助人工智能技术,越来越多的测评工作可以交给智能测评系统来完成。如图1-9所示,作文批阅系统主要应用于语文等学科的测评,不仅能自动生成评分,还能提供有针对性的反馈诊断报告,指导学生进行修改,一定程度上解决了教师因作文批改数量大而导致的批改不精细、反馈不具体等问题。
图1-9 作文批阅系统
(5)自动驾驶。
在L3及以上级别的自动驾驶过程中,车辆必须能够自动识别周围的环境,并对交通态势进行判断,进而对下一步的行驶路径进行规划。除本车传感器收集到的数据,还会有来自云端的实时信息、与其他车辆或路边设备交互得到的数据。实时数据越多,处理器需要处理的信息越多,对于实时性的要求也就越高。通过深度学习技术,系统可以对大量未处理的数据进行整理与分析,实现算法水平的提升。深度学习与人工智能技术已经成为帮助汽车实现自动驾驶的重要技术基础。
①特斯拉已能实现L5级别的自动驾驶
特斯拉创始人埃隆·马斯克宣布,未来所有的特斯拉新车将装配具有全自动驾驶功能的硬件系统Autopilot 2.0。特斯拉官网显示,Autopilot 2.0适用于所有特斯拉车型,配备这种新硬件的Model S和Model X已投入生产。
据悉,Autopilot 2.0系统将包含8个摄像头,可覆盖360°可视范围,对周围环境的监控距离最远可达250米。车辆配备的12个超声波传感器完善了视觉系统,探测和传感软硬物体的距离是上一代系统的两倍。全新的增强版前置雷达可以通过冗余波长获取周围更丰富的数据。雷达波还可以穿越大雨、雾、灰尘,对前方车辆进行检测。
②中国无人驾驶公交车
中国无人驾驶公交车——阿尔法巴已开始在中国广东深圳科技园区的道路上行驶。该公交系统以国产、自主可控的智能驾驶技术为基础,集人工智能、自动控制、视觉计算等技术于一体,具备包括激光雷达、毫米波雷达、摄像头、GPS天线等感知设备在内的7道安全防线,通过工控机、整车控制器、CAN网络分析路况,能够实时对其他道路使用者和突发状况做出反应,可实现自动驾驶下的行人和车辆检测、减速避让、紧急停车、障碍物绕行、变道、自动按站停靠等功能。
该车可容纳25人,最高时速40公里/小时,单次续航里程可达150公里,40分钟即可充满电,具备人工和自动驾驶两种模式,支持两种状态的切换。节能与高可靠性是该车的一大亮点,车辆采用了国内首创的驱动电机与后桥一体化集成技术,传动效率提升2%~3%,电机及核心传动部件可靠性达120万公里,质保里程5年/40万公里,降低了生命周期维护保养成本。
(6)智能机器人。
“机器人”一词最早出现在1920年捷克科幻作家恰佩克的《罗索姆的万能机器人》中,原文写作“robota”,后来成为英文“robot”。更科学的定义是1967年由日本科学家森政弘与合田周平提出的:机器人是一种具有移动性、个体性、智能性、通用性、半机械半人性、自动性、奴隶性7个特征的柔性机器。
国际机器人联合会将机器人分为两类:工业机器人和服务机器人。工业机器人是一种通过重复编程和自动控制,能够完成某些操作任务的多功能、多自由度的机电一体化自动机械装备和系统,它结合制造主机或生产线,可以组成单机或多机自动化系统,进行搬运、焊接、装配和喷涂等多种生产作业。
①Atlas机器人
谷歌收购了波士顿动力公司,这家代表机器人领域最高水平的公司在YouTube上发布了新一代Atlas机器人的视频,彻底颠覆了以往机器人重心不稳、笨重迟钝的形象。
如图1-10所示,新版Atlas是机器人发展史上一次质的飞跃,它不仅能在坎坷不平的地面上行走自如,还能完成开门、拾物、蹲下等拟人的动作,而且被推倒还可以自己爬起来。
图1-10 Atlas机器人
②亚马逊仓库里的机器人
2012年,亚马逊以7.75亿美元的价格收购了以做仓储机器人闻名的Kiva System公司,Kiva System公司更名为Amazon Robotics。
2014年,亚马逊开始在仓库中全面应用Kiva机器人,以提高物流处理速度。Kiva机器人和我们印象中的机器人不太一样,它就像一个放大版的冰壶,顶部有可顶起货架的托盘,底部靠轮子运动。如图1-11所示,Kiva机器人依靠电力驱动,最多可以托起重3000磅(约1.36吨)的货架,并根据远程指令在仓库内自主运动,把目标货架从仓库移动到工人处理区,由工人从货架上拿下包裹,完成最后的拣选、二次分拣、打包复核等工作。之后,Kiva机器人会把空货架移回原位。电池电量过低时,Kiva还会自动回到充电位给自己充电。Kiva机器人也被用于各大转运中心。目前,亚马逊的仓库中有超过10万台Kiva机器人,它们就像一群勤劳的工蚁,在仓库中不停地走来走去,搬运货物。让“工蚁”们不在搬运货架的过程中相撞,是Amazon Robotics的核心技术之一。在过去很长一段时间内,Amazon Robotics几乎是唯一能把复杂的硬件和软件集成到一个精巧的机器人中的公司。
图1-11 Kiva机器人
2.通用人工智能起步阶段
通用人工智能(Artificial General lntelligence, AGl)是一种未来的计算机程序,可以执行相当于人类甚至超越人类智力水平的任务。通用人工智能不仅能够独立完成任务,如识别照片或翻译语言,还会加法、减法、下棋和讲法语,还可以理解物理论文、撰写小说、设计投资策略,并与陌生人进行愉快的交谈,其应用并不局限在某个特定领域。
通用人工智能与强人工智能的区别为通用人工智能强调的是拥有像人一样的能力,可以通过学习胜任人的任何工作,但不要求它有自我意识;强人工智能不仅要具备人类的某些能力,还要有自我意识,可以独立思考并解决问题。这两种人工智能分类来源于约翰·希尔勒在提出“中文房间”实验时设定的人工智能级别。
“中文房间”实验是将一位只会说英语的人(带着一本中文字典)放到一个封闭的房间里,写有中文问题的纸片被送入房间后,房间中的人可以使用中文字典来翻译这些文字并用中文回复。虽然完全不懂中文,但是房间里的人可以让任何房间外的人误以为他懂中文。
约翰·希尔勒想要表达的观点是,人工智能永远不可能像人类那样拥有自我意识,所以人类的研究根本无法达到强人工智能的目标。即使是能够满足人类各种需求的通用人工智能,与自我意识觉醒的强人工智能之间也不存在递进关系。因此,人工智能可以无限接近却无法超越人类智能。