黑镜与秩序:数智化风险社会下的人工智能伦理与治理
上QQ阅读APP看书,第一时间看更新

人机共生:近未来的挑战与问题

在过去数年的人工智能发展过程中,正向和反向的问题都关联到同一个命题:人机共生。

我们可以看到整个社会面对人工智能的两类看法:一类看法是,人工智能给社会发展带来新的技术红利,不同的行业因此得到了赋能,通过人工智能技术的发展终将重塑人类社会和人类未来的可能性,我们正在成为半有机物半机械化的赛博格人;另一类看法是,人工智能技术带来了巨大的伦理风险,会冲击社会的基本秩序和伦理底线,使得相关责任人陷入伦理困境,从长远来看,人类甚至可能会被人工智能全面超越和反噬,技术人将取代人类。

事实上,人工智能的核心哲学思想就是假设智能系统是在约束的资源条件下运作的,而主流的深度学习方法论则与此相悖。本章就是基于这个认知来讨论人工智能伦理与技术哲学之间的真实困境。

关于人工智能伦理的研究经历了3个阶段。

第一个阶段主要研究人工智能伦理必要性的问题。相关的研究主要发起在美国,由于美国在人工智能技术上保持的领先性,以Google公司为代表的企业很早就遇到了诸如人工智能军事化等伦理问题,引发了产业界和学术界的重视。

第二个阶段主要研究人工智能伦理准则。这个阶段欧盟和中国都积极参与,例如2019年4月欧盟委员会发布了人工智能伦理准则。这些原则包括:确保人的能动性和监督性,保证技术稳健性和安全性,加强隐私和数据管理,保证透明度,维持人工智能系统使用的多样性,非歧视性和公平性,增加社会福祉,以及加强问责制。迄今为止有数十个研究机构或者组织提出了各自的人工智能伦理准则和建议,大体上这些原则具备一定的普适性和内在的一致性,在伦理的树立层面达成了一定的共识。

第三个阶段是目前我们所处的阶段,主要对人工智能伦理体系进行研究,也就是人工智能伦理准则的具体内涵和应用措施的研究。通过“伦理使命—伦理准则—实施细则”的体系来解决两个在原则层面无法解决的问题:一个问题是“人工智能伦理的自我执行性问题”,即原则如何通过相互配合的运作机制落实;另一个问题是“人工智能伦理的风险控制问题”,即通过前瞻性的部署以降低其应用风险。简言之,人工智能伦理体系规划阶段就是人工智能伦理从虚到实的过程,只有这样才能规范地推动人工智能技术的发展,不断改进和完善其技术的演化路径。

从技术视角来看,人工智能伦理体系应该如何与人工智能技术的动态演化相适应?在回答这个问题之前,我们需要了解人工智能的技术本质。人工智能技术拥有不同范式,包括逻辑智能(命题逻辑和一阶谓词逻辑)、概率智能(贝叶斯定理和贝叶斯网络)、计算智能(遗传算法和进化计算)、神经智能(机器学习和深度学习)、量子智能(量子计算和量子机器学习)。

总体来说,人工智能可以看作机器通过建立在大数据基础上的逻辑推理与感知学习与真实世界互动。换言之,人工智能逻辑算法能够执行的底层架构是海量的数据,人工智能公司拥有的数据资源越多,在竞争格局中的优势越明显。《人工智能时代》作者、斯坦福大学人工智能与伦理学教授杰瑞·卡普兰认为:“一个非常好的人工智能公司往往依靠大量数据,而且强大的公司会越来越强,他们能将数据的累积、迭代和自动标注形成一个良性循环。”机器从特定的大量数据中总结规律,归纳出某些特定的知识,然后将这种知识应用到现实场景中解决实际问题,这个过程即计算机的逻辑推理。

人工智能从1956年建立概念至今,最初是逻辑学派占主导地位,主要是因为逻辑推理和启发式搜索在智能模拟中避开了大脑思维规律中深层次的复杂问题,在定理证明、问题求解、模式识别等关键领域取得了重大突破。早期科学家普遍认为,人工智能与传统计算机程序的本质差别在于它能够进行逻辑推理。这种思维抛开了大脑的微观结构和智能的进化过程,单纯利用程序或逻辑学在对问题求解的过程中模拟人类的思维逻辑,所以也被分类为弱人工智能。

回顾近现代知识论中有重要影响的哲学家笛卡儿的理论,真正的智能将体现为一种通用问题求解能力而不是特定问题求解能力的一个事后综合。这种通用能力的根本特征就在于它具有面对不同问题语境而不断改变自身的可塑性、极强的学习能力和更新能力。

笔者认为这种通用问题求解能力是机器感知的必要不充分条件,只有当机器不单纯针对某个具体问题展现过人的水平,而是在各类通用问题上都能通过构建自我逻辑系统与学习系统与世界反馈,才能从意识上实现机器“觉醒”。与之相对应,康德在《纯粹理性批判》中提出了整合经验论和唯理论的心智理论。他将心智的知觉活动划分为两个板块:其一是感性能力,其任务是拣选出那些感官信息的原始输入;其二是知性能力,其任务是致力于把这些输入材料整理成一个融贯的、富有意义的世界经验。康德将主要精力投向了知性能力,给出了一个关于高阶认知的精细模型,并通过该模型将知性能力区分为12个范畴。

当机器拥有知性能力时,便获得了感知世界并与之交互的能力,我们也可以称之为自主意识。自主意识可以让机器在没有预先设定程序的情况下通过自我感知与学习来处理复杂系统。美国心理学家和计算机科学家约瑟夫·利克莱德提出了“认知计算”概念——可以让计算机系统性地思考和提出问题的解决办法,并且实现人与计算机合作进行决策和控制复杂的情形,而这个过程不依赖于预先设定的程序。

从科幻电影中我们也可以逐步生成对机器感知的主观印象:从1927年的德国电影《大都会》、1968年的《2001:太空漫游》到几年前的《超能陆战队》《她》《机械姬》,观众们普遍认为强人工智能带来的会是一个有意识、有人形、智慧与人类相当甚至超过人类的机器人。

当前,人工智能技术还未成熟,换言之,我们依然置身于弱人工智能时代,但人工智能应用在现实生活中的伦理问题已经很严峻。随着自动驾驶汽车日益普及,特别是一些无人驾驶汽车交通事故的发生,伦理学中著名的“电车难题”成为保证无人驾驶安全性甚至人工智能伦理必须思考的问题。

麻省理工学院参考“电车难题”启动了一个名为道德机器的在线测试项目,收集整理公众的道德决策数据。来自233个国家和地区的数百万用户共计4000万个道德决策的数据反映出一些全球性偏好:更倾向于拯救人类而不是动物,拯救多数人而牺牲少数人,优先拯救儿童。但基于地理和文化等因素的异质性,在部分问题选择上,不同国家和地区的人们依然具有不同倾向程度的差异。2018年,德国为自动驾驶汽车制定了首个伦理规则。该规则提到,相比于对动物或财产造成的伤害,系统必须最优先考虑人类安全;如果事故不可避免,禁止任何基于年龄、性别、种族、身体特征或其他区别的歧视;对于道德上模糊的事件,人类必须重新获得控制权。这种通过人类预先设定道德算法在机器身上植入能够控制机器选择与行为的设计方式属于自上而下式的。

从解决方案来说,设计者(人类)必须先在伦理理论方面达成社会一致性,分析在计算机系统中执行该理论所必需的信息和总体程序要求,然后才能设计并执行伦理理论的子系统。尽管这种自上而下的设计方式可以建立在“无知之幕”的基础上以保证相对公平,但预先设定的算法往往在具体问题上产生自相矛盾的困境。

相比之下,自下而上是一种全新的思路:让机器通过日常规则的迭代衍生出自己的道德标准。具备感知学习能力的机器可以汇总外部信息,在不同情境下形成系统行为模式。同时,设计者可以通过建立一个奖励系统,鼓励机器采取某些行为。这样一种反馈机制能够促使机器及时发展出自己的伦理准则,类似于人类在童年时期形成道德品质的学习经验,使得人工智能够真正成为人工道德主体,建立自身行为的正当性。

为了探究机器是否能够成为道德主体,我们不得不思考人与机器的关系。人工智能的技术突破了自启蒙运动以来人和非人实体之间的界限。随着人工智能的发展,人、技术与世界的关系结构发生了改变,人和技术也表现出融合关系,例如后现象学技术哲学家维贝克提出的赛博格关系和复合关系。当机器的主体地位独立于人类时,其是否能够成为更为人道的责任主体呢?

以智能化无人机为例。2018年6月,美国国防部宣布成立联合人工智能中心以来,美国不断加快人工智能军事化应用的步伐。2020年初,美军袭击杀害伊朗高级将领卡西姆·苏莱曼尼,让中东局势骤然紧张。媒体报道称,美军在这次行动中使用了“收割者”无人机。伴随人工智能技术在军事应用领域的深化,以“收割者”为代表的无人机已具备了智能化特征,由此也引发了对战争责任主体的新争议,即相对于传统战争中人类作为唯一的责任主体,高度智能化的无人机能否更好地承担战争责任,进而将未来战争引向更为人道的方向?

美国乔治亚理工学院的罗纳德·C﹒阿金指出,在确保交战正义性上,较之有人作战平台,智能化机器人具有以下6个优势:无须考虑自身安全;具备超人的战场观察能力;不受主观情绪左右;不受习惯模式影响;具有更快的信息处理速度;可以独立、客观地监测战场道德行为。

基于以上优势,他认为,在执行人道原则方面,智能化无人作战平台会比人类表现得更好。然而,限于目前无人机自治系统存在不稳定性和风险性,包括控制系统故障、电子信号干扰、黑客网络攻击以及其他战场上可能发生的意外情况,都会影响其执行符合人道主义规约的决策,甚至造成战场杀人机器的失控。另外,无人机导致的责任分配困境还体现在如何应对“责任转嫁”的问题中,利用人机的高度一体化,军方和政府可以把人为的责任转嫁给无人机,以逃避战争罪责。

无人作战的出现,必将导致一些传统的战争伦理发生深刻变化,这需要引起高度重视。目前,一些国家已经提出给智能化程度越来越高的军用无人系统制定国际法和伦理准则,以约束其战场行为。2013年5月27日,联合国人权理事会例行会议也指出,将机器人从远程遥控发展至自动判断敌情、杀死敌人,可能误伤准备投降的士兵。这提醒我们既要利用战争伦理维护自己的利益,又要改变战争伦理,为无人系统使用提供合法保障,或者发展符合战争伦理规范的无人系统。例如,对无人系统进行规范,要求其能够自动识别、瞄准敌人使用的武器,使其失效或遭到摧毁,解除对己方构成的威胁,却不必杀死相关人员,以减轻人们对潜在的“机器人杀手”的种种担忧。

机器拥有“心智”是人类的追求,也让人类对自身安全产生担忧,这反映的是一种对人工智能自主进化的不确定性导致的恐惧。霍金说:“将人工智能用作工具包可以增强我们现在的智能,在科学和社会的每个领域开拓进步。但是,它也会带来危险……我担心的是,人工智能自己会‘起飞’并不断加速重新设计自己;人类受到缓慢的生物演化的限制,无法竞争以至于被超越。在未来,人工智能可以发展自身的意志,那是一种与我们相冲突的意志。”

从技术路径来说,未来学家担心的就在于超级人工智能具备了智能的演化和自我复制性,从而在思想上超越人类,也就是达到技术奇点。要理解人工智能是否能够达到这个所谓的技术奇点,需要清楚智能的本质是否具备上文提到的感知能力所要求的基本要素。

让我们再回到深度学习技术的现实发展过程中来,这一轮人工智能技术的发展是以深度学习为基础的。虽然深度学习会在短期内使人类劳动力得到表面上的解放,但是会在长期内钝化社会机制,阻碍人类的治理发展得以充分实现。换言之,人类对深度学习依赖越多,就越难从这样的风险中解放出来。

深度学习带来的技术伦理风险有3方面:第一,深度学习方法使得我们要按照其本身的需求对人类不同领域的知识进行分类,这会使得人类对社会行业分类的权力和能力下降;第二,大数据技术与深度学习的结合,会对人类自身的隐私安全和信息伦理造成巨大的威胁;第三,深度学习本质上是一种归纳、演绎的系统逻辑,对于“黑天鹅事件”类的风险的应对能力有限,会削弱整个人类社会对偶然风险的应对能力。一言以蔽之,笔者认为深度学习的人工智能并不能带领人类走向更美好的未来,通用人工智能与人类资源的结合才有可能使得人类社会兼具效率和弹性,我们所期待的人工智能时代的革命尚未成功。

回到技术哲学的本源来看,通过知识论和哲学学理的逻辑推导出技术发展的未来,并将认知科学、心智研究和语言建模等学术领域的知识放入其中进行讨论,才有可能摆脱对人工智能发展无意义的乌托邦论或者危机论的争辩,回归到现实主义的路径,建构真正有利于人工智能未来发展的伦理和技术路线。

人工智能的到来让我们开始思考人类进化的路径。如果不谈科幻电影中人类灭亡的极端情况,人类存在两种近未来的演化方向:一种是产生新的物种,一个新的人类种族可以在地球或者其他行星上进化形成,也就是通过定向进化的方式产生新物种(事实上基因编辑技术也是这种进化路径的技术实践);另一种是人机共生,就是机器与人脑相结合创造新的共生物种,人类越来越接近赛博格,这也是我们可以预见的关于人机结合的重要发展方向,是我们必须面临的近未来中要回答的问题。