人工智能与法律的对话3
上QQ阅读APP看书,第一时间看更新

第三章 机器人、AI与自我决定的个人

大屋雄裕(1)

如电影《星球大战》(乔治·卢卡斯导演,1977年)中登场的C-3PO这般的机器人,若在台阶上摔倒并牵连到他人,使其受伤的话,那么由此产生的损害,应该由谁来如何负责呢?如《2001:太空漫游》(斯坦利·库布里克导演,1968年)中,宇宙飞船发现一号上所搭载的电脑HAL9000那般,在AI决意以某些理由杀害搭乘者的场合下,应该怎么办?在机器人与AI获得了自主性,实施了超出人类指示的行为时,我们的社会能够在法律上——民事、刑事两个方面上——妥当地对此结果作出处理吗?

数十年前在科幻电影和科幻小说中所幻想的上述事态,已然愈发接近现实。按导航指示开车但却驶入不合理路线,有这种经验的人估计也不少吧(结果使得车子坠湖的事例也有被报道)。这种事例中所设想的是,司机个人还是有能力和责任来判断是否要按照导航指示去做(如果选择那样做,在导航启动时也要被提醒注意)。但是高龄者被C-3PO那样无声地来回扫除家庭地板的机器人所绊倒,出现此等事例不足为奇,这里就找不到与导航事例相类似的行为者。空调AI认为“合适”而持续设置温度,结果却损害了屋内就寝的痴呆症高龄者的健康。在这种场合下,空调与高龄者两者之中,谁具有更高的判断能力?谁应该作为行为主体,来负责呢?