黑镜与秩序:数智化风险社会下的人工智能伦理与治理
上QQ阅读APP看书,第一时间看更新

算法机制中的劣币与良币

在人工智能领域,算法被认为是人工智能系统的核心,也是其智能的体现。而在2020年9月《人物》杂志发表的《外卖骑手,困在系统里》一文则重点关注了算法带来的风险。文章凸显了外卖骑手被算法所控制这一伦理命题。该文表明,外卖系统3km配送时效从2016年的长达1h缩短到2017年的45min,再缩短到2018年的39min;而2019年中国全行业外卖订单的配送时间比过去3年少了10min,这背后是外卖骑手们为此付出的巨大生命安全代价——交通事故和伤亡事故层出不穷。这篇文章最终聚焦于算法,提出“算法到底是如何存在的”这一问题,这引发了社会各界广泛的讨论。

让我们来看看这篇文章中讨论的问题。外卖平台似乎利用算法不断压缩外卖员的配送时间,在强大的算法系统驱动下,外卖骑手为了避免差评和维持收入,会选择逆行和闯红灯,这不仅影响了自己的生活和健康,也给交通安全带来了隐患。外卖平台以大数据技术为基础,了解消费者的意愿和外卖骑手的可挤压时间,利用算法为不同的外卖骑手制订不同的配送方案,对外卖骑手实行“价格歧视”,最终利用所有外卖骑手牟取暴利。

事实上,外卖业务也是各大生活服务平台最大的净利润来源。根据美团财报,美团2019年营收975亿元,同比增长49.5%,这是美团首次实现盈利,其中外卖业务的毛利为102亿元。到了2020年,其外卖收入同比仅增长了2.1%,但净利润却增长了96.4%,其核心原因是通过优化算法提高了外卖骑手的配送效率,这也是美团上市两年后市值增长超过两倍的原因。换句话说,平台的配送效率已经成为商业竞争的壁垒,算法推动了配送路线的不断优化,但这些优化都是极端条件下的理想场景,在增加隐性风险的同时也导致了工作效率的提高。

上述文章之所以引发如此广泛的讨论,除了外卖骑手的不利处境外,还有一个重要原因:算法在当前数字经济时代已经无处不在,在各种场景下任何人都可以成为下一个被利用的“外卖骑手”。这种担忧的根源在于算法的保密性、技术盲点、复杂性以及算法使用者的刻意隐瞒,使得大多数人无法了解算法的工作原理,导致算法使用者在可解释性上占据主导地位,形成“算法霸权”,严重危害了算法相对人的合法权益。

算法作为一种数据处理规则,不仅可以对事件进行模式化处理,降低事件处理成本,还可以根据数据进行分析和预测,是对社会进行量化分析与精细化管理的重要途径,进而作为辅助决策系统被广泛应用于各种决策场景,如个人征信、房屋租赁等领域。然而,由于算法本身的复杂性、相关技术知识的专业性、算法商业秘密的属性以及算法使用者的刻意隐瞒,算法一直披着技术的外衣行商业机密保护之实,拒绝向公众解释算法决策的原理。在算法笼罩的阴霾下,资产阶级可能会利用数据塑造算法霸权,并依靠算法霸权实施算法专制。算法的使用者对算法相对人享有事实上的支配权,在私人利益的驱使下,逐渐侵犯算法相对人的合法权益,导致算法歧视、算法操纵等众多算法乱象。

事实上,我们看到算法作为一种技术工具如何干涉社会的运行逻辑。随着数据的海量增长、数据处理及运算能力的提升以及机器深度学习技术的快速发展,人工智能不仅被广泛应用于自然科学领域,而且涉足政治、文化、法律等人文社会科学领域,被用来广泛采集用户信息、分析用户特征,以此为基础判断、干预甚至操控社会问题与社会现象。作为技术工具的人工智能被有效嵌入社会的政治体系、制度框架等上层建筑的各个子系统之中,或干预社会政治文化体系,或引发社会问题与社会危机,算法歧视与算法操控就是最明显的表现形式。

所谓算法歧视(algorithmic bias)指的是人工智能算法在收集、分类、生成和解释数据时产生的与人类相同的歧视,主要表现为年龄歧视、性别歧视、消费歧视、就业歧视、种族歧视、弱势群体歧视等现象。

例如,人脸识别技术凸显的算法歧视问题非常明显。2015年,Google公司曾将黑人程序员上传的自拍照贴上“大猩猩”标签,雅虎平台也曾将黑人的照片标记成“猿猴”。美国警方的犯罪数据识别系统自动认定黑人社区的犯罪概率更高,2016年,当研究人员将一套算法模拟应用于加利福尼亚州时,该系统反复派遣警方人员到少数族裔比例高的地区巡逻执勤。与求职就业相关的算法向男性推荐的工作岗位整体工资要高于向女性推荐的工作岗位。随着人工智能技术的进一步发展,算法歧视将带来越来越严重的社会问题,一位英国学者指出:“随着算法决策系统的普及以及机器学习系统的结构复杂化……算法在人们日常生活中的应用与影响越来越广泛,如果不加以控制的话,算法歧视冲击社会公正与公平的风险将进一步加剧。”

我们发现,机器学习技术与基于自动识别数据模式的统计技术的交融为人工智能时代的标签“算法制胜”打下了基础,算法制胜被嵌入意识形态领域,带来的丰厚回报就是算法操控。通过大数据技术与机器学习的嵌入助力人工智能“参政议政”已被西方政治家“有效实践”。算法可以对人们的政治人格进行大规模的回归分析,为政治目的操控每一种情感。与社会歧视相比,算法歧视与算法操控具有更加隐蔽与更加多元的特点。

首先,传统的种族歧视、性别歧视等是被社会反对或被法律禁止的;但算法歧视与算法操控由于披着科技的外衣而更加隐蔽,人们不会提出明确反对,即便提出质疑,也会因为“算法黑箱”这一冠冕堂皇的理由而谅解这一现象。其次,社会歧视往往依据人的肤色、性别、家庭出身、学历等显性特征做出判断;但算法可以依据消费记录、网页浏览记录、行程记录等属于个人隐私的数据作为统计与分析的依据,因而更加多元,其渗透力与影响力也更大。因此,我们需要规避这样的风险。

追溯历史,提高计算机系统透明度的呼声早在21世纪初期就已存在,例如对计算机辅助决策模型透明度的研究在2005年就已出现。在随后的近十年,一方面因算法技术的发展受限导致相关研究趋缓;另一方面算法的可专利性、算法致害的损害赔偿责任及反不正当竞争等问题成为彼时研究的重点,导致与算法透明相关的研究停滞不前。直至2014年前后,由于算法技术的再度繁荣及其应用场景的多元化,再加上算法危害事件频频出现,对算法透明的探索再次作为一种迫切的需求被诸多学者关注,成为一大热点话题。

在目前的算法治理理论和实践中,对算法透明有两种理解:一种是将算法代码、数据和决策树等信息作为重点披露对象;另一种则更加强调算法透明是一个完整的过程,仅披露代码和数据等信息远远不够,还要通过文字和图形解释算法决策的过程。前者可称为狭义的算法透明;后者可称为广义的算法透明,其中还包括算法可解释性。算法可解释性要求算法使用者确保算法决策的逻辑、意义和理由以及用于决策的任何中间数据能够以非技术的方式向算法利益相关者和其他利益相关者解释。

严格来说,算法解释和算法透明并不是治理的两个独立维度,它们有一定程度的共同点:首先,算法解释和算法透明具有目的一致性。无论是算法解释还是算法透明,其核心都是为了规避算法使用者因算法而享有不合理的算法权力,同时避免由于算法带来的歧视性现象,从而保护算法作用群体的合法权益和公共利益;其次,算法解释和算法透明具有一定的重叠性或交叉性。公开算法代码和数据等信息是算法透明的主要方式,也是算法解释的必要步骤之一。

同时我们应当注意,二者存在一定差别:首先,狭义的算法透明侧重于代码和数据等信息的公开,而算法解释更侧重于算法相对人或公众对算法决策的可理解性;其次,算法代码和数据等信息的公开是算法透明的核心关注点,但算法解释更侧重于以通俗易懂的方式解释算法决策的原理、决策树和逻辑关系;最后,两者在功能上存在差异,算法透明是算法解释的前提或基础,算法解释因算法透明而更具说服力和可理解性。在现有的研究中,对算法解释的研究可以分为两类:一类是将算法透明和算法解释融合为“可理解的算法透明”;另一类是基于算法解释和算法透明在功能和关注点上的差异,将算法可解释作为算法治理的一个独立子集来讨论。事实上,在算法社会中,算法的黑箱属性在赋予算法使用者以算法权力的同时,也逐渐侵害了算法相对人的合法权益。为了治理算法,保护算法相对人的合法权益,以公开算法代码等信息为主的算法透明措施在算法治理中发挥着越来越重要的作用。然而,由于算法和机器学习等技术的复杂性、信息公开对象的技术水平以及商业秘密制度等阻碍因素,算法透明的效果被削弱了。

以上是对算法机制的平衡与算法歧视带来的风险与应对的讨论。笔者认为,对效率的过度追求实际上会给社会治理带来风险,人工智能带来的自动化、智能化延伸了大脑的功能,让人进一步从体力和脑力劳动中解放出来,但也在一定程度上消解了人的主体性。即便我们目前不必过多担忧强人工智能与超人工智能时代机器智慧等同或超越人类智慧引发的危机,但也不能忽视弱人工智能阶段智能机器主导劳动过程,人成为机器的辅助者,在人类自身解放的同时逐步丧失部分劳动能力,人与机器主客体关系被颠倒的异化问题。机器的独立性越强,自主性越明显,人的依赖性就越严重,被动性就越突出,人的某些能力就越容易退化。在智能机器主导的自动化经济中,人让位于智能机器或者被智能机器剥夺其劳动岗位,劳动者失去了本应该从劳动过程中获得的愉悦感、幸福感、满足感,低技能劳动者的一些基本劳动技能逐步退化,高技能劳动者的创造力逐步消失。

马克思认为:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”人是按照一定的交往方式进行生产活动的人,是发生在一定社会关系和政治关系中的个人。传统机器化生产中人与人相互配合、相互补充、统一调配的工作方式在人工智能时代完全可能由程序员设计的自动程序取代。无人化的工作环境与工作方式很容易使人的生活方式发生变化,人与人之间的关系不再那么社会化,越来越多的人倾向于选择离群索居、孤立生活,甚至将来与机器人“女友”或“男友”相伴一生也不是没有可能。此外,在人工智能时代,物联网技术也使更多的人常常沉迷于虚拟世界,与周围的现实世界之间横亘着一道无形的鸿沟,对身边的世界漠不关心、疏远冷漠,手机依赖症已是最普遍的一种现实映照,人的社会性正逐步被消解。这些问题的出现都在提醒我们,算法并非社会系统发展的唯一答案,应该通过系统性的规制去推动其正向的价值。