中文版序
在绝大多数现代国家,自动驾驶汽车、手术机器人、工业机器人、交易算法、个人机器人和其他人工智能实体正在被普遍使用。这些用途可以是个人的、医疗的、军事的、商业的或工业的。当自动驾驶汽车涉及交通事故罪、手术机器人涉及医疗事故罪、交易算法涉及欺诈罪等情况发生之时,就会产生刑事责任问题。那么,谁应对这些罪行承担刑事责任:制造商、程序员、用户或人工智能实体本身?
技术世界瞬息万变。在从事简单活动方面,机器人和计算机正更加频繁地取代人类。只要人类仅仅将计算机当作工具,计算机和螺丝刀、汽车或电话之间就没有任何显著区别。但是,随着计算机变得越来越复杂,我们开始认为,它们为我们“思考”。当计算机从“思考机器”(thinking machine)(被编程来执行计算等特定思考过程的设备)进化成不加引号的思考机器(换言之,人工智能)之时,问题开始出现。人工智能就是机器模仿智能行为的能力。
人工智能是在计算机上模拟人类行为和认知的过程。因此,它是对整个智能思维领域本质的研究。人工智能研究开始于20世纪40年代和50年代初。从那时起,人工智能实体已经成为现代人类生活不可或缺的一部分,它的运行方式比其他普通工具复杂得多。这些实体会变成危险吗?事实上,正如上述事件所证明的那样,它们已经成为危险。
人工智能和机器人正在进入日常现代生活。目前,法院或监管部门正面临上述某些问题。但是,很少有文献全面地分析并评估具有不同程度自主权的机器人、机器或软件的责任。
涉及人工智能系统犯罪的责任概念尚未得到广泛研究。先进的技术使社会面临全新的挑战,不仅包括技术挑战,也包括法律挑战。特定情况下,人工智能系统的刑事责任理念正是这些挑战之一,应当予以深入探讨。其中的主要问题是,谁应该对涉及人工智能系统的犯罪承担刑事责任。答案可能包括程序员、制造商、用户,或许还有人工智能系统本身。
2009年,我在美国和澳大利亚发表了几篇具体探讨该问题的文章。这些文章探讨的具体内容似乎对开启该问题的学术讨论发挥了重要作用。这些文章的主要思想是,刑法不应该改变技术,而是应该主动适应现代技术的发展。我的文章还呼吁思考并反思对机器和软件赋予刑事责任的理念。也许,并不应该对机器赋予刑事责任,但是,如果刑法的基本定义没有改变,那么这一怪异的结果却是不可避免的。
我的每篇文章都获得了许多评论,对此,我需要对这一理念进行限制性概括。该理念的第一个概括是,它仅限于有形机器人,这些机器人配有人工智能软件,实施杀人罪的具体犯罪,而且并非衍生性刑事责任(derivative criminal liability)。2013年,拙著《当机器人杀人之时》(When Robots Kill)由新英格兰大学出版社(UPNE)和东北大学出版社在美国合作出版。尽管该书是一本学术性书籍,但它的目标受众却旨在涵盖法律学者之外的广大读者。
这本书被认为是具有创新性的。《华盛顿邮报》(Washington Post)、《波士顿环球报》(Boston Globe)、《纪事评论》(the Chronicle Review)和《喧嚣》(the Hustle)等媒体均发表过相关书评。相关评论更是不胜枚举。其中,一些评论呼吁对这一问题进行最终的、全面的学术概括,不局限于有形机器人,亦不局限于杀人罪,应涉及衍生刑事责任问题。
但是,随着机器人的使用与日俱增,更多的问题不断涌现。虽然《当机器人杀人之时》已经给出明确答案,但法律界之外的同事和科学家邀请我撰写一部新的专著。这次是关于人工智能系统。于是,拙著《涉人工智能系统犯罪的责任》(Liability for Crimes Involving Artificial Intelligence Systems)于2015年由斯普林格(Springer)出版社在欧洲出版。
人工智能技术界对法律问题的认识也相应有所提高。很多学术论坛(文章和学术讲座)以及学术论坛之外的其他场合(包括高科技产业和志同道合之士),都邀请我解释如何实施这些理念。现在的情况似乎是,学术界之外的公众所要求的答案,确实是官方法律系统无法提供的。
2016年和2017年,匈牙利布达佩斯“脑吧”(Brain Bar)公开节两次邀请我就相关问题发表演讲(2016年:涉及杀人罪的机器人;2017年:与机器人的爱与性)。2018年,鉴于超级智能和后生物学(post biology)的发展,罗马尼亚布加勒斯特的特德克斯(TEDx)邀请我就“思考的未来”发表演讲。当然,我还接受了很多其他邀请。每次,我都能感觉到人们对答案的渴望。这种渴望如此真实,它与我在美国和欧洲关于这个问题的学术讲座中所感受到的学术界对答案的渴望毫无差别。
2019年,上海人民出版社邀请我向中国读者介绍这些理念。不过,在此期间,人工智能已经出现了全新的发展,它们应当纳入新的专著之中。于是,本书应运而生。
我们所需要的是一本专业的学术教科书来解决这个问题,尽管它可能不太适合广大公众阅读。这本书是对这一问题最终的、全面的学术概括。这本书表达的整体理念涉及所有类型的先进人工智能系统(自主运行的系统和遵循计划的系统)的所有类型的犯罪的所有刑事责任模式(直接责任和衍生责任)。涉及这些犯罪的人工智能系统可能是主犯、共犯,也可能仅仅是犯罪工具。本书的主要观点之一是,或许至少目前尚不应当赋予技术系统刑事责任。但是,如果刑法的基本定义没有改变,那么这种怪异的结果则是不可避免的。
本书的目的是发展出关于人工智能和机器人刑事责任的综合的、一般的和复杂的法学理论。除了人工智能实体本身之外,该理论还涵盖制造商、程序员、用户和所有其他相关实体。通过对现有刑法原则的确认和类比,该理论提出在各种合理状况下由各种自主技术承担刑事责任的具体思维方式。
第一章包括一些基本概念的探索,本书展开的后续章节均以这些概念为基础予以构建。本书讨论两个主要问题:(1)什么可以被认为是人工智能实体?(2)追究刑事责任的必要条件是什么?
因为刑法并不依赖于道德(moral accountability),所以关于机器道德责任的争论与这些问题无关。虽然,有时刑事责任、某些类型的道德责任和某些类型的伦理责任之间存在重叠,但对于追究刑事责任而言,这只是巧合,而非必要。
刑法适用于机器的问题还涉及两个相互关联的次要问题:(1)刑事责任是否适用于机器?(2)刑事处罚是否适用于机器?
第一个问题是刑法的核心问题,是否追究刑事责任取决于是否满足刑事责任的要求。只有满足刑事责任的要求,惩罚——即人类社会如何惩罚机器——的问题才会出现。本书中提出的答案对这两个问题都是肯定的。第二章至第五章研究第一个问题,第六章研究第二个问题。如果接受本书中的肯定答案,那么事实上,我们已创造了一个全新的社会实体,即机械犯罪人(machina sapiens criminalis)。第一章研究机械犯罪人的出现。最后,本书的研究回答以下问题,即人工智能实体是否可以被认为应对犯罪行为承担法律责任(如果不是道德责任的话),并应受到刑事处罚。
本书聚焦于人工智能实体的法律责任,故而并未正式涉足伦理(包括机器人伦理)和道德的相关领域。然而,本书中关于刑事责任的讨论为深入考虑相关伦理问题奠定了基础。鉴于日常生活中人工智能实体数量不断增加,这些探讨将是必要的。对此,本书构建了一个应有的框架,有助于对这些问题进行具体性和功能性的探讨。
我非常感谢上海人民出版社邀请我向中国读者介绍这些理念。另外,我非常感谢陈萍博士将书稿翻译成中文。最后,我非常感谢我的女儿们——哈蕾尔和阿里尔,感谢她们一直以来与我展开硕果累累的探讨。
以色列奥诺学院(Ono Academic College)法学院教授
加布里埃尔·哈列维