黑镜与秩序:数智化风险社会下的人工智能伦理与治理
上QQ阅读APP看书,第一时间看更新

伦理与治理

回到智能社会本身,我们反思人工智能的发明和制造是为了什么呢?我们是想追求一种和谐美好的生活,一种人类与智能机器友好共处的文明社会。这种社会可以从如下3点定义。

第一,智能社会是真实的世界,而不是虚拟空间。盲目追求科技理性的生活方式,迷失于过度消费的圈套里,我们就会忘记生活的本来面目,不知不觉中过一种“假的生活”。

自20世纪以来,特别是现象学打出“面向事情本身”的大旗以后,人们对科技理性、工具理性的反思和批判就从未停止过。在某种意义上,智能社会正是这样一种无处不以数字量化来显示其存在的社会。监控一个井盖、记录一辆车的轨迹乃至透视一个人的心思,人工智能几乎能将任何实体以简洁无误的数字全方位展现给我们。

但真实的人类社会不是这样的,人类社会是一个生机勃勃的世界,人作为这个世界生生不息的力量源泉,是存在先于本质;人工智能则相反。人是主动的、生成的、创造的、超越的,有生命力的,相应的世界是变化的、丰富的,是高于科学世界的。完全以科学世界那种量化方式作为生活方式和思维方式,就会丧失人的主体性和能动性,幸福生活将变得不可能。只有反过来,以生活世界为起点,才能更合理地解释、理解以智能社会为代表的科学世界。人类运用人工智能,不是为了自保和延续,而是将其作为生活帮手,把人从繁杂事务中解放出来,更好地发挥创造性,使人有更多闲暇享受生活乐趣和智能社会的便利。

第二,智能社会是自由而全面的,而不是精英阶层独有的。换言之,智能社会要解放的不是少数社会精英,而是大多数普通人。人工智能也许会是社会文化区隔的工具,但在斗争的另一面,人与人之间的矛盾在智能社会中也可能会发生微妙变化。特别是当人和人工智能的矛盾日益明显时,就更加凸显了人与人之间友好交往的必要性。因为人不是人工智能,人的本质必须在社会实践中形成,生活意义的建构也必须来自主体经验的体悟。只有与人(而不是机器)相处,广泛体验社会,人的生活才会更明朗,对生活的记忆才会更深刻,生命的状态才最自然,幸福的感觉才最切实。我们对更文明的智能社会充满期待,这样的社会应该更注重人与人之间的友好关系,更注重社会的公平和正义。

第三,智能社会是快乐社会而不是享乐社会。家务机器人、助老机器人、儿童看护机器人、宠物机器人等各种新奇的人工智能产品不断刺激人们的消费欲望,这些人工智能在一定程度上免除了身体劳累之苦,满足各种感官享受。

人们常把这种享乐当作伊壁鸠鲁式的快乐,但是快乐在伊壁鸠鲁那里除了肉体无痛苦外,还注重心灵无纷扰的状态。因为纯粹的肉体快乐只是消极快乐,能够克服人为制造的欲望才是真实的快乐。在智能社会中,真实的快乐绝不会仅停留在感官层面,必定来自人在精神上的充实和宁静。在这样的社会中,人能坦然地面对人之为人的局限性和不完美,不被欲望禁锢于消极快感中。人就是要过一种理性的生活,一种不伪装的、人的生活,而非神的生活。只有克制欲望,回归人的理性,才能真正感受智能社会的美好。

当前,我们离理想的智能社会还有很长的距离,人们面临的挑战在于,科技行业习惯于向前看,更多地关注产品创新、技术落地、产业变现等问题,这对行业而言是件好事。当写字楼里西装革履的高管、兢兢业业的程序员都在整齐划一地朝着这些目标前进时,很少有人愿意接受一种有益的做法,即认真观察“后视镜”,以便能够利用过去的经验预测转弯处的问题。然而,观察“后视镜”,即通过梳理历史信息,时刻紧扣科技发展趋势的脉搏,迎接日益严峻的科技社会伦理难题,对“科技高速路上”的任何一家科技公司来说都是意义重大的。

关注“伦理后视镜”,从而不断调整前进的角度和速度,近年来已经慢慢被一些公司所重视。实际上,对于人工智能的伦理问题,至少从2017年开始就有不少大科技公司关注并采取行动了。早在2011年,微软公司、IBM公司和多伦多大学就已经意识到人工智能领域非常需要消除偏见之后的公正性。从技术层面解释,这是因为人工智能中大多数算法模型的工作方式都是“黑箱”,研究人员通常只知道输入的内容和输出的结果与质量,但无法解释清楚人工智能算法内部的工作机制。如果人工智能研究者利用带有偏见的数据集或者在调整参数时加入自己的偏见,就有可能导致人工智能输出结果的不公正。

为了解决这个问题,2014年,微软研究院启动了FATE(Fairness Accountability Transparency and Ethics in AI)项目,旨在提升人工智能的公正、可靠和透明度。这个项目团队每年组织一次名为FAT in ML的专题讨论会,邀请人工智能领域内多位资深技术专家分享新的研究进展。Google公司重金收购的英国DeepMind公司在2017年启动了DeepMind Ethics & Society项目,并提出了两个目标:一是帮助技术人员践行道德,二是帮助社会预测人工智能的影响,让所有人受益。

对于科技公司而言,人工智能不仅不是万能灵药,而且是很有风险的技术,因此需要拥有“瞻前顾后”的能力才能在产业竞争中游刃有余。在人工智能的“黑箱”可以被清楚理解和完整解释之前,一个值得参考的建议是,先确立人工智能的基础法则。当然,由于人工智能的影响早已超越一般性的组织,因此全球都在制定人工智能治理的原则,并根据这些原则提出适合当地人工智能发展的战略,其中最具代表性的就是欧盟的人工智能治理法则,即基于人工智能伦理的治理生态。早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立专门研究机器人和人工智能发展相关法律问题的工作小组。2016年5月,JURI发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendation to the Commission on Civil Law Rules on Robotics),呼吁欧盟委员会评估人工智能的影响,并在2017年1月正式就机器人民事立法提出了广泛的建议,提出制定《机器人宪章》。2017年5月,欧洲经济与社会委员会(EESC)发布了一份关于人工智能的意见,指出人工智能给伦理、安全、隐私等11个领域带来的机遇和挑战,倡议制定人工智能伦理规范,建立人工智能监控和认证的标准系统。同年10月,欧洲理事会指出,欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定,并邀请欧盟委员会在2018年初提出应对人工智能新趋势的方法。为解决人工智能发展和应用引发的伦理问题,欧盟已将人工智能伦理与治理确立为未来立法工作的重点内容。在推动本地化人工智能伦理走向治理上,毫无疑问欧盟是走在前面的。

基于这个现状,我们认为人工智能治理对于现代社会的组织(国家、社区、企业、家庭等)是不可或缺的命题,因此撰写了本书,探讨人类从社会的伦理反思到治理生态的系统逻辑,这个命题可以作为技术伦理到技术治理的创新尝试。可以看到,第四次工业革命(工业4.0)正当其时,当下人们讨论大数据、人工智能、基因配对、生殖克隆之时,技术发展导致的伦理困惑议题已成为一种新常态。其中浮现了一个显而易见的悖论:作为人类扩展世界、拓展自然的手段,技术在迅速扩展之时也扩展到人类自身。简言之,人类也成了人化自然的一部分。由此,现代科技爆发式发展促使人类重新审视生命的定义,尤其是作为“主体”的人类自身与其他物种的关系。此刻,似乎已经通过科技“掌握”一切的人类却逐渐开始迷茫、困惑,我们如同几千年前的先人一般再次追问那些恒久问题:生命的本质是什么?人与机器的价值核心差异是什么?只有在我们搞清楚这些问题的时候,再去思考人工智能伦理,才会有清晰的思路。

数字技术和人工智能革命的结果无法预测,毕竟历史无法告诉我们什么才是最后的技术革命,但严峻的直接威胁、长期的结构性失衡和紧张的局势引发了国际上对人工智能伦理和治理的热议。在这场讨论中,“伦理”一词经常被用来表达对人工智能潜在威胁的合理担忧。关于人工智能伦理和治理的讨论,最有争议的就是世界范围内各种各样的人工智能原则框架定义,这些定义主要由大型互联网平台、跨国公司、国际非政府组织和各国政府提出。

尽管某些伦理原则存在细微(但关键)的差异,但各种人工智能原则框架都强调未来的人工智能应该是安全的、可解释的、公平的和可靠的,并且其收益应该由社会共享。这些定义似乎达成了一个国际共识,即人工智能应该被用来为人类谋福利,应以人为中心、负责任、值得信赖,并应始终将能动性交给人并为人所监督。

然而,这些积极的人工智能原则框架反而证实了当今的伦理和治理能力不足以防止或减轻人工智能的破坏性力量,而且这些潜在破坏力明显具有全球影响和历史意义。几乎所有的框架都是从狭义角度分析人工智能风险,没有考虑技术的双重属性与实际的社会、政治、经济和国际事务之间的联系。这些人工智能原则框架忽略了人工智能最有可能推动而非改变社会、政治、经济和国际事务的历史发展。人工智能将越来越多地作出自主决策,但短期内它不会脱离人类并实现完全自主。我们不能依赖人工智能承担一个卓越的、超级有益的、以人为中心的“指引者”角色,以指引人类过上普遍公平、有尊严的生活。虽然很多人工智能原则很容易被确立,但考虑到人工智能风险的复杂性和不确定性,确立新的治理方法以执行人工智能原则将更加困难。

如果需要解决以上问题,我们应具备的知识体系一定是跨域的,因此在本书中我们不仅讨论技术伦理所涉及的伦理学、政治经济学、哲学和社会学等人文学科,也会涉及计算机科学、生物学以及人工智能等理工学科。我们相信,唯有打破学科边界,将知识拓展到相应学科的交叉领域,才有可能为我们解决不确定世界中的复杂问题提供有益的思考框架。值得庆幸的是,在人工智能尚不具备真正的智能的时候,我们已经走在为其制定规则的路上了,这也是我们撰写本书的思想基础,即拓展和建构人工智能时代的人文主义。

对于今天的人们来说,突破启蒙时代早期的观念,持续探索人类自身和外在世界以及两者之间的关系,是必不可少的积极选择。这样的研究是多向的,既包括继续进行生命科学、人工智能和其他科学与技术的研究和发明,也包括为了应对这些已经出现或即将出现的现象而进行的对策研究,甚至包括预防的研究,而后一种研究要通过人文科学、社会科学和自然科学的综合研究来完成。

回顾地球数十亿年的历史,智人这个物种用了短短7000年就发展出人类文明,并成为这个星球上脱离了自然的约束并决定其发展的最重要的力量。那么究竟人类和其他动物有什么区别,使得其成为一个特殊物种呢?在众多理论中,由英国学者凯文·莱兰提出的基于信息传递效率的文化驱动理论已经得到了最新研究成果的有力支持。这个理论认为,人与其他动物的区别在于人类拥有含义丰富的口语或符号语言,这使得人类从文化中学到的东西比其他动物更多并具有继承性。在现存的生物中,人类是唯一突破了文化变革阈值的物种,这就形成了所谓的基因-文化协同演化过程。换言之,人类社会之所以会出现大规模合作现象,就是因为人类具备这样的社会学习和教育能力,能够实现在其他生物群体中存在的合作机制的同时,也产生了新的文化群体选择的合作机制,从而成为独一无二的物种。

因此,我们对人工智能伦理研究的立足点就在于人文主义,即通过以人为核心的文化价值传承和社会知识系统的建构来保障人的中心和主体地位。我们可以看到人工智能时代的人文主义精神就是持续地促进并在可能的情况下筹划人的发展和进化,借助于日新月异的科学和技术,持续地提高人类自身而使其得到升华。人的性质如果不能变化,那么它的前景就不是中止并永远停留在当下,而是趋向于被淘汰和消亡。人工智能时代的人文主义蕴含了如下的自信和精神:人类本身的发展和进化在今天已经开始呈现出文化的与物理的统一趋势,这正是人们应对人类前景的积极观点的根据所在。

过去数年间,科学家提议用“人类纪”作为地球的一个地质年代,这个地质学概念的提出有重要的观测数据和研究数据基础,最具代表性的就是7000年人类文明史带给现代人类的现状。在人类纪之前,具有大规模地改变地球生态和气候的力量来源于地球自身;而人类则用人工设计取代了自然选择,将生命形式从有机领域延伸到无机领域,将人工设计放在自然中去塑造环境。最重要的是,人类正在运用科技的力量对自身的进化方向施加影响,包括生物工程、赛博格工程和非有机生物工程等,这一系列问题都与人工智能的伦理等课题有着密切的关系,即关于人的自我认知和技术伦理问题等,这也是读者理解本书的基点:人工智能的伦理问题的本质是什么?如何建立一种合理的人机共生的秩序?我们将通过12章来阐述这些问题,从社会发展的现代性到数智化风险社会,从医疗人工智能到深度合成技术,从计算法学到人机共治,等等,相信这些内容会使读者有足够的知识去理解人工智能伦理与治理这个关乎人类未来命运的问题。欢迎各位读者与我们一同开启这次关于人类未来的思想“奇幻旅程”。