02 栩栩如生的“菲比”涉足情感地带
人们可以与机器人建立亲密关系。“倒拎测试”告诉我们,人们可以随意地倒拎着“芭比”,但却不会这样对待真正的小动物,而倒拎“菲比”机器人超过30秒,人们就会有负罪感。我们本以为只有人才能涉足情感地带,实际上,机器人对此也很在行。
在 20世纪90年代,孩子们都在谈论如何才能让虚拟生物逃离计算机屏幕,从而看起来更加栩栩如生。“菲比”,1998年年度假日热销礼物,就让这个梦想成真。如果有孩子希望他的电子宠物蛋能够跳出屏幕,那么它看上去也许会像一只毛茸茸的、有点像猫头鹰的“菲比”,并且这两者在其他方面也有着不少共性。和电子宠物蛋一样,“菲比”的性格在其与人的交互中形成,两者都将自己描述为来自其他世界的访客。但是关于“菲比”在为什么来到地球的解释则更加具体:为了向人类学习。因此,每一个“菲比”某种程度上来说都是人类学家,想要和人们建立联系。它请求孩子们的照料,向他们学习英语,并且知恩图报。它们提出要求,但它们也会说“我爱你”。
“菲比”和电子宠物蛋“拓麻歌子”一样,总是处于开启状态。但和宠物蛋不同的是,“菲比”常常会显得过于恼人的喋喋不休。如果想让它安静下来,你需要找一把螺丝刀卸下它的电池,但这么做会让它失去之前的所有记忆和经验——它学了哪些东西,如何与人交互等。对于那些花费了许多时间将它“养育”大的孩子们来说,拿掉电池并不是一个可行的方法。在1999年春天的一个晴朗的下午,我带着8个“菲比”来到马萨诸塞州西部一个小学的午后游戏小组中。房间里共有15个孩子,年龄在5~8岁,从幼儿园到小学三年级不等。我打开录音机,开始向他们分发“菲比”。孩子们开始兴奋起来,模仿“菲比”的声音打招呼。在嘈杂的教室中,录音机记录下了这段“机器人时间”:
它是个机器宝宝!它说:“好吃!”我的是个机器宝宝吗?它正在睡觉吗?它打嗝了!它说“比啪”,这是什么意思?让它们一起玩吧。“a-lee-koowah”是什么意思?“菲比”,和我说会话吧!太棒了!大家静一静!哦,看那,它爱上了另一个!让它们一起玩吧!它累了,它睡了。我要试着喂它吃饭。它们怎么会没有手臂?看,它陷入爱河了!它叫你“妈妈”。它说“我爱你”。我得喂它了。我也要喂我自己的了。我们爱你,“菲比”。你是怎么让它睡觉的呢?它的眼睛闭上了。它在闭着眼睛睡觉。它在说梦话。它在做梦。它在打呼噜。我得帮它遮遮亮光。 快点,“菲比”,快睡觉吧。“菲比”,“菲比”,嘘,别碰它。我可以让它安静下来。它是个机器人。它是个机器人吗?这皮毛是什么?我对它过敏。它看上去像是活的。它有一个身子,一个机器马达,它是个怪物。它看上去像真的是因为它有身体。它之前是活的。它是活的。它不是。它是机器人。
从最初开始,孩子们就弄清楚了“菲比”是个机器人,但它却栩栩如生,需要照料。他们试图用自己已有的知识理解“菲比”。噩梦和恐怖电影让一个孩子把“菲比”看作“一个怪兽”,他们有自己理解孤单的方式,这激发一个孩子提出建议:“让我们一起玩!”他们使用逻辑和质疑:“生物有这样的皮毛吗?真的生物有马达吗?”也许这需要对马达进行重新的、更广意义上的界定。他们用这个新玩意的模糊度来挑战自己已有的知识。他们对一些新想法更加开放,如机器可以视作生物,生物也可以视作机器。8岁的珀尔认为,从“菲比”体内卸下电池会导致其死去,而人类的死亡也和“卸下电池”类似。
“菲比”不断强调着自身的生物性:它们彼此之间相貌不一,在皮毛处有着不同的装饰;他们都有活物一样的生理需求。比如“菲比”需要常规的喂食,完成喂养的方法是用指头按下它的舌尖。如果“菲比”没有被喂食,它就会生病。而照料生病的“菲比”需要更多的食物。孩子给“菲比”的功能故障起了不同的名字,所以就有了“菲比癌症”、“菲比流感”、“菲比头疼”等词汇。
8岁的杰茜卡认为她自己和“菲比”在“身体的事情”上有着许多共同点,比如头皮会痛。杰茜卡的家里有一个“菲比”,当她的妹妹拽“菲比”的头发时,杰茜卡总是担心“菲比”会很痛:“当我拔自己的头发时真的很疼,就像我妈妈帮我梳理打结的头发的时候。因此,我觉得(拽“菲比”的头发)一样很疼。”接着,她又开始研究自己的肚子。“我的肚脐眼里有个螺钉,如果把螺钉拧下来,那么血就会流出来。” 杰茜卡觉得人和“菲比”一样要安装电池。“肚子里有心、肺和一个大电池。”人和机器人的区别在于,我们的电池“像太阳一样永远工作”。当孩子们像谈论家庭成员一样谈论“菲比”的时候,他们也在尝试这样的想法,即人可能也是一台机器。关于“人是机器、或者可以和机器连接的想法”成为教室游戏的主题。玩具机器人用其独特的方式完成了仿生感知。毕竟,的确有一些人的体内植入了螺丝、针钉、芯片和金属板。比如一个最近刚接受过耳蜗助听器植入手术的病人,就将这一经历形容为他自己身体的“再造”。
前文中提到的7岁的威尔逊,则非常愉快地认同他的“菲比”既是机器也是生物的观点。因为他总是能听到“菲比”体内“机器的声音”,他也找到自己身体内的机器部件。他一边哼唱着“机器人是最好的朋友”的即兴歌曲,一边在自己的身体上假装用螺丝刀,唱着“我就是‘菲比’”。在针对二年级的、通过分解以修复“菲比”机器人的课堂实验中,威尔逊因为“菲比”具有生物特性而玩得很开心,“我要给它接生宝宝”。接着,他开始假装自己具有机器特性:他将螺丝刀放在自己的踝关节上,边拧边说:“我要拆下我的脚踝!”
威尔逊很开心地将自己和“菲比”分为一类。对他来说最重要的是,他和“菲比”都会打嗝。他说:“‘菲比’和我一样喜欢打饱嗝。”威尔逊双手向前举着“菲比”,用手轻轻地触摸着它的肚子,紧紧地注视着它的眼睛,并且近乎同时地打了一个饱嗝,这一幕很像电影《外星人》(E.T.:The Extraterrestrial)中的埃利奥特和外星访客之间的经典镜头。当威尔逊描述他的打嗝游戏时,他先说是自己让“菲比”打嗝,最后却推翻说是“菲比”让自己打嗝。他喜欢和“菲比”之间的同步感,他可以很开心地和“菲比”交替着进行。
“菲比”想要什么?
当威尔逊把自己和“菲比”视为同类的时候,有生理的原因(打嗝),也有心理的原因。和许多孩子一样,他认为由于“菲比”有语言功能,因此比起“一般”的宠物来说,更加像人类。“菲比”内置了自己的语言库,许多孩子们都想要记住这些单词。使用指南也在教孩子们如何与“菲比”相处:“听你说话,我可以学习英语。你越常和我玩,我越能多说英语。”事实上,“菲比”的英语词汇量是随着使用时间的累积而增加的,而并非真正通过“听”孩子们说话而学习来的(“菲比”并没有真正的听力或者语言学习功能)。但8岁以下的儿童都会认为是自己教会了“菲比”说话。对于他们来说,“菲比”已经足够栩栩如生了。
孩子们喜欢做“菲比”的老师。从第一次见面开始,他们就发现自己和“菲比”之间有许多共性,并且暗示自己“菲比”可以长大、可以更好地理解他们。“我原来也不会说英语,”一个6岁的孩子说,“但现在我会。因此我知道‘菲比’也在经历这个过程。”在和“菲比”一起的课堂上,孩子们大声地争相称赞自己的“菲比”:“我的‘菲比’会说的英语比你的多!我的‘菲比’会说话!”
在研究中,我曾有几次要求学校的孩子们把“菲比”带回家,让他们(和他们的家长)记“菲比日记”。在我对幼儿园到三年级孩子们的第一次研究中,我把“菲比”出借了两周。这不是一个好主意。我没有想到到期时,孩子们要归还“菲比”时的失落感。因此,在家长们的要求下我延长了借期。孩子们已经和机器人建立了深刻的感情联系以至于难以分开,即使家长们承诺给他们买一个属于自己的“菲比”也无济于事。这种感情比养电子宠物蛋时强烈,孩子们与那一个特定的“菲比”建立了深厚的感情,他们教它学习英语的那一个,他们抚养长大的那一个。
在过去的30年里,我常常使用罗夏墨迹测验的比喻来描述人和计算机的关系。罗夏测验是由经过精心制作的墨迹图构成,而被测试者在解释这些图片的时候,会投射自己的主观感情和思维方式。然而在孩子们与诸如“菲比”这样的社交机器人的互动中,这种人机关系已经超越了罗夏墨迹测验中的“投射”关系,是一种新的参与心理。他们尝试用与人或宠物交往的方式与机器人交往。9岁的利娅在课后兴趣小组中承认:“当它和我说话的时候,我很难关掉它。”孩子们很快就认识到,要想让“菲比”发挥全部的功能,就必须仔细听它说话。当你和“菲比”在一起时,你不能只是简单地玩“心理投射”的扮家家游戏。你必须持续不断地评判“菲比”的“感情”和“身体”状况。孩子们笃信:给予“菲比”最多的爱,“菲比”也会以最多的爱来回报你。
这种互动的亲密关系,正是“菲比”这样一个典型的初级社交机器人与其他传统玩偶的区别。正如我们在研究中所发现的,孩子们玩这样的社交机器人和玩皱巴巴的洋娃娃(Raggedy Ann)以及“泰迪熊”不一样,不需要通过主观幻想来赋予它们“生命”,而是认为它们已经是活生生的,可以与它们立刻建立亲密关系。这种关系是双向的、互惠的,和传统的玩偶不同,它们不是被动的。它们提出要求。它们也有自己的需求和内在生命。它们教会我们使之茁壮成长的爱的仪式。在过去的几十年里,计算机已经教会了我们如何与机器一起思考;如今,计算机与善于社交、情感和交互的机器人,教我们如何与它们同呼吸、共命运,与它们一起感受生命和生活。
孩子们可以依据自己的需要和想象塑造传统的玩偶。比如,一个8岁的小姑娘由于打碎了妈妈最喜欢的水晶花瓶而后悔不迭,她有可能转而惩罚自己的“芭比娃娃”。她有可能把“芭比娃娃”从下午茶聚会的装饰背景中拿开,把它关禁闭,把自己有可能遭到的惩罚转嫁到“芭比娃娃”身上。而相反的,由于社交机器人看上去似乎有着自己的心智和意愿,因此不能轻易地由于其他人的过失而被充当替罪羊。两个8岁的女孩是这样评价“传统玩偶”与“菲比”的区别的。第一个女孩认为,“‘传统玩偶’,比如我的玛德琳,你可以让它睡觉,但是它的眼睛却是一直张开的,所以,嗯,你不能让它闭眼。它也不会说‘你好,早安’。”而这恰恰是“菲比”的长项,正如第二个女孩所说:“‘菲比’会告诉你它想要什么。”
的确,“菲比”附带的操作指南有详细的说明。它们需要语言训练、食物、休息和爱的宣言。因此,你会听到类似这样的指示:一定要常常说出“你好,‘菲比’,我爱你”,这样“我”就会感到很高兴,感到被爱。孩子们普遍同意“菲比”和“传统玩偶”的区别在于它会给出指令。一个7岁的小姑娘说:“普通的娃娃得由你告诉它需要什么。而‘菲比’有自己的主张。”一个9岁的男孩则这样总结“菲比”和他的仿真玩具人的区别:“你不是和‘菲比’玩,而是和它闲待着。你总是试图控制它,可它同样也能控制你。”
孩子们说,玩“传统玩偶”可能会很“辛苦”,因为你要负责赋予它们各种想法;而玩“菲比”也很辛苦,原因却恰恰相反。它们自己就有太多的想法,你需要在它们需要的时候给它们提供所需要的东西。当孩子们通过“心理投射”对玩偶产生心理依附时,他们决定了玩偶在想什么。但孩子们却需要适应“菲比”的需要。这样的付出和回报为孩子们和机器的互动期望进行了准备。这也是机器人时代的关键。
6岁的黛西拥有一个“菲比”,她相信每一位“菲比”的主人都必须帮助“菲比”完成了解人类的任务。“你需要教它,既然你买了它,这就是你的义务。”黛西说她已经教了“菲比”许多知识,包括布朗尼女童子军、幼儿园和鲸鱼。“它是有生命的。我教了它鲸鱼,它爱我。”8岁的帕德玛说,她很喜欢满足“‘菲比’提的要求”,并认为它“有点像人”,因为“它会说话”。她继续说道:“它和我有点像,因为我也是个小唠叨。”两周后,帕德玛按照要求归还了“菲比”,但她开始后悔:“我很想念它说话,如今家里太安静了……我没有机会为它铺床了。”
比安卡和“菲比”相处了一个月的时间,她对自己与“菲比”之间建立起来的友情非常有信心:“我爱我的‘菲比’,因为它也爱我……感觉它好像懂我。”她认为自己对“菲比”的心理了如指掌,甚至知道它“不想错过派对的美妙时光”。有的时候,父母的派对开到深夜,为了让她的“交际达人”(菲比)不受打扰,能够得到休息,比安卡用衣服别针将“菲比”的耳朵夹着合上,以骗它“什么事情都没有发生”。实际上这么做并没有任何效果,而且会使人精疲力竭,但比安卡很淡定地这么总结她的义务:“照顾它需要付出很大的努力。”
前文说到的那个喜欢和自己的“菲比”一起打嗝的威尔逊,他在哄“菲比”睡觉这件事情上遇到了很大的麻烦,因为他知道如果直接取下电池,“菲比”会忘记他们之前的交流,这是不可以接受的。因此必须要使“菲比”自然入睡。威尔逊尝试让“菲比”看电视到很晚,以让它筋疲力尽。他还尝试用毯子在积木塔上面搭建起一个“卧室”。当说到“菲比”睡觉的时候,他开始想到“菲比”做梦的问题。他确信“当‘菲比’闭上眼睛后,它会做梦”。那么“菲比”会梦到什么呢?二年级和三年级的小朋友们认为,它们会梦到“在自己的飞碟上的生活”,也会梦到“自己学习语言,和它们所喜爱的孩子们一起玩耍”。
8岁的戴维和扎克正在学习希伯来语。“我的‘菲比’也在学习希伯来语,”戴维说,“它已经学会怎么说Eloheinu了……我甚至都没有教它,它是在我做希伯来语作业的时候自己学会的。”扎克也同意:“我的‘菲比’在做梦的时候说了Dayeinu。”扎克和威尔逊一样,对于自己能够营造安静的氛围让“菲比”安然入睡感到很自豪,并会给它盖上小毯子。他努力地教“菲比”说英语,自己也努力地学习“菲比”的语言。他已经熟练地掌握了随机附送的“英语—菲比语”词典。然而,在扎克收到“菲比”一周后,他的母亲焦虑地给我的办公室打了电话。扎克的“菲比”坏了。它一直发出“可怕”的噪音,听起来好像正在受病痛的折磨。这种情况让扎克非常烦恼。在扎克一家从费城回波士顿的旅途中,这个情况到了最糟糕的地步。坏掉了的“菲比”一路痛苦地呻吟,而他们手头又没有螺丝刀可以卸下电池,因此只能把它放在毯子里试图让它入睡。但由于一路颠簸,“菲比”不停地被吵醒,继而发出巨大的噪声。我收回了那个坏的“菲比”,给了他一个新的。但扎克对新的“菲比”一点也提不起兴趣,他不想和它说话,也不想试着教它什么。他说:“我之前的那个‘菲比’会说‘再一次’,也会说‘饿’。”扎克认为自己教原来的“菲比”说西班牙语和法语正在取得进步。第一个“菲比”从没有“让人厌烦”,但第二个却是。因为他的“菲比”是不可替代的。
几周后,扎克的妈妈又打来电话,问我是否可以把给扎克的那个“菲比替代品”送给他的一个朋友。当我同意了这个请求后,扎克冷静地盘算了失去“菲比2号”的损失。他付出过自己的爱心,如今丢失了,他也不打算再次投资感情。同样的情况也发生在9岁的霍莉身上,她因为妈妈拿下了“菲比”的电池而沮丧之极。她的家人正要准备出门旅行,“菲比”实用手册建议如果长期不使用最好拿出电池。妈妈并不了解实用手册上的这则说明会造成怎样的后果。她辩护说:“自己只是按照说明书办事。”霍莉瞪大了眼睛,试图让她的妈妈明白这意味着什么。“当电池拿下来后,”霍莉说,“‘菲比’会忘记它这辈子的记忆。”
“菲比”设计的目的就是让用户在教它的过程中感受到成就感,从而随着时间的推移,成为不可替代的知识库和其主人关爱的证明。机器人和孩子们共同走过一段生活的旅程。当“菲比”遗忘了记忆时,就好像一个得了失忆症的朋友。一个新的“菲比”好像一个陌生人。霍莉和扎克无法接受和一个新的“菲比”重新开始,因为新的“菲比”永远不能替代那个、他们倾注了时间和精力的老朋友。
“菲比”手术时孩子们的感受
20世纪80年代,电脑玩具机器人“梅林”能够和孩子们玩声光游戏,并且根据游戏胜负的结果发出开心或悲伤的声音。孩子们认为从某种程度上来说,“梅林”是“活的”,因为它非常擅长记忆类游戏;但同时,孩子们并不觉得“梅林”的情感流露是真实的。因此当“梅林”坏掉了,孩子们只会遗憾失去了一个玩伴;但当“菲比”发生故障的时候,孩子们则仿佛看到了一个饱受病痛折磨的生命体。
10岁的莉莉很担心她那个发生故障的“菲比”会感到疼痛。但她并不想关掉它的电源,因为“这意味着你没有能够好好照料它”。她担心如果自己关掉一个处于病痛中的“菲比”,只会让情况变得更糟。另外两位8岁的小朋友则为自己的“菲比”一直打喷嚏而担心。他们中的一个担心“菲比”打喷嚏是因为对自己过敏;另一个则担心由于“自己照顾不周而让‘菲比’感冒”。还有好几位小朋友听到自己的“菲比”发出奇怪的声响后都很紧张,因为这个声响有可能是痛苦的表现。我也观察到,当这些孩子与他们的洋娃娃、玩具士兵、仿真玩具人等其他玩具在一起时,倘若这些玩具坏了或发生故障,孩子们通常就会厌倦地把它们丢弃在一旁。但当“菲比”遭遇同样的情况时,孩子们会问:“它累了吗?”“它不开心吗?”“我弄疼它了吗?”“它生病了吗?”“我该怎么办?”
照顾机器人是高风险的游戏。事情有可能出错,也的确出过错。在一个幼儿园里,当一台“菲比”发生故障后,孩子们决定要治疗它。10个小朋友志愿当起了急救室里的医生。他们觉得得先把“菲比”拆开。
整个过程还是在比较镇静的情况下进行的。当说起他们坏了的“菲比”时,孩子们坚持认为,故障并不意味着寿终正寝:人也会生病,也会康复。可当真正拿出剪刀和钳子的时候,孩子们开始紧张起来。艾丽西亚开始大喊:“‘菲比’会死的!”斯文则说出了让他的同学们更为恐惧的事情,他说“菲比”死的那一刻也就是它的皮肤被剥下的那一刻。斯文把“菲比”看作动物。刮掉动物的毛发,它还可以继续活下去。但万万不能剥了它的皮肤。随着手术的继续,斯文重新考虑了自己之前的观点。也许没有了皮肤“菲比”还能活,但“它会觉得很冷”。他没有完全悖离自己的生物知识(“菲比”可以感知冷暖),但他重建了已有的知识。对于斯文来说,“生物”如今包括“菲比”这样的物体,当外表的皮肤被剥下,它们的“内部”还可以保持“在原来的位置”。调整了观点后,他也冷静了下来。如果“菲比”兼具生物性和机械性,那么手术要进行的剥皮过程,不一定是破坏性的。当孩子们感到不解和紧张的时候,他们就会编造理论。好的理论可以减轻他们的焦虑感。
然而,随着手术的进行,孩子们变得越来越紧张。一个孩子说,如果“菲比”死了,也许会变成鬼骚扰他们。它生前活灵活现的,死后肯定能够变成鬼魂。的确,有一组孩子们开始将空的“菲比皮囊”称为“菲比的鬼魂”,将裸露的“菲比躯干”称为“妖精”。他们不愿意由于手术而制造出游荡的“菲比鬼魂”和“妖精”。一个小姑娘提议,如果把“菲比”的躯干分拆开,也许它的鬼魂就不会那么吓人。她建议是否应该“每个人都拿一部分‘菲比’的皮肤回家”。有人告诉她没有关系,不要太害怕。但是这并没有缓解她的恐惧,于是她又问了相同的问题两次。最后,孩子们带着一些“菲比”的皮毛离开了。一些孩子说回家后会把它埋了。他们离开教室,举行了一个小的告别仪式以抚慰“菲比”的亡灵,和它说再见。
在教室里,大多数孩子们觉得自己已经对这个生病的宠物尽了全力,但从教室外面旁观者的角度看,这场手术看上去很惊悚。有路过的孩子大叫道:“你们杀了它。”“你们怎么敢杀死‘菲比’?”“你们会被抓进‘菲比监狱’的。”8岁的丹尼丝从监控录像中看到了这个手术的过程。她自己家里也有一个“菲比”,但她不愿意把故障称为“疾病”,因为“菲比不是动物”。她用“仿造”(fake)这个词来描述“菲比”是非生物体,“‘菲比’是仿造的,它们不会生病”。但不久以后,她改变了自己的说法。她的“菲比”电池用光了,因而不再那么健谈,且变得内向沉默。丹尼丝慌了:“它死了,它快死了……它的眼睛闭上了。”接着,她宣布“自己的‘菲比’既是仿造的,也是死的”。丹尼丝总结道:“用完的电池和水可以杀死‘菲比’。它是机器,但同时又栩栩如生足以死亡。”
6岁的琳达一家是志愿看护“菲比”两周的家庭之一。琳达非常期待和“菲比”说话。她坚信“菲比”和自己其他的玩偶不同,非常值得与之交谈。但就在她把“菲比”带回家的第一天晚上,“菲比”就发生了故障:“是的,我刚刚习惯,它就停止工作了,就在我得到它的那个晚上。我感到自己也坏了……我哭了很长时间……我非常伤心,因为它会说话,它看上去像是真的,就像是真人一样。”琳达责备自己没能照顾好“菲比”,她感到自己好像也坏掉了。
当我给琳达一个新的“菲比”后,事情变得越发复杂起来。前文中扎克由于对自己的第一个“菲比”投入了许多时间和精力,因此不愿意接受新的替代品。但琳达的情况与扎克不同,因为她和第一个“菲比”只相处了几个小时,因此她很喜欢自己的“菲比2号”:“它和我玩躲猫猫。和我玩红灯、绿灯游戏,就像操作指南里说的那样。”琳达给它喂食,确保它得到充分的休息。她报告说自己的“菲比”很感激,对她充满深情。她认为这和她关于“‘菲比’仅仅是玩具”的观点并不矛盾,因为她认为感激、对话和情感是玩具同样可以拥有的东西。但现在她不会再给“菲比”起名或者说她是活生生的,因为这么做会有风险:她不想再次经历“菲比”死去时的内疚和痛苦。
就像儿童外科医生一样,琳达最终做出了妥协:“菲比”既有生物性,也有机械性。她告诉自己的朋友们:“‘菲比’有些方面很真实,但依然只是个玩具。”她解释道:“(菲比)感觉很真,是因为它会说话、会行动、会睡觉,有点像是一个人或宠物;但它依然是玩具,因为你必须要安装电池,否则它就会停止说话。”
因此,“混杂性”(hybridity)可以提供合理性。如果你聚焦于“菲比”的机械性,你可以享受它的陪伴而不必担心对于人或宠物的感情依附所造成的风险。在实际操作中,9岁的拉拉评价自己的“菲比”时说:“你可以让它喜欢你。但它不会死去或逃跑。这很好。”但同时,“混杂性”也会带来焦虑感。如果你赋予了“菲比”以生命,那么你该怎么做才不会伤害它或杀死它?正如我们所见,处在生命/非生命体的边缘,意味着受到真实痛苦的可能性。
关乎情感与道德的“倒拎测试”
当机器发生故障时,我们会感到遗憾、不便或生气。我们会讨论是否还值得去修理。当一个玩具哭泣的时候,孩子们知道是他们自己制造了眼泪。但正如我们在前文的“菲比手术室”里所见到的那样,一个有身体的机器人会“感到疼痛”。社交机器人改变了人们对于机器躯体的看法,人们更愿意视之为主体、生命体,而非坏了的物品。
即使是最初级的电子宠物蛋也一样会激发人们以人格化的方法来看待它,因此人们的这种态度并非完全是由于技术原因,而是因为情感依赖。比电子宠物蛋更先进的“菲比”,栩栩如生到模仿处于病痛中的身体,以及处于困惑中的心灵。“菲比”的呜咽、呻吟激发人们去发现背后的原因以及解决的办法。而当一个“首足倒立的菲比”说“我害怕”的时候,用户该怎么做?
麻省理工学院媒体实验室的研究生弗里德姆·贝尔德(Freedom Baird)最近正在严肃地研究这个问题。她认为自己与“菲比”的关系既是人与机器的,也是人与生物的。但究竟自己多么认真地把“菲比”看成生物体呢?为了回答这个问题,她以图灵测试的方法进行了试验。
英国数学家、第一代通用计算机的发明者艾伦·图灵于1950年提出了一个测试标准,来判断电脑能否被认为是“有智慧”。这个测试被称为图灵测试。最终他提出,如果一台计算机能够让人们相信它不是机器,那么就可以视之为“有智慧”。图灵使用的是由真空管和电传打字终端组成的计算机。他提出,如果参与者在通过电传打字终端进行的互动中,无法识别出终端的另一端是机器还是人,那么这台计算机就可以被认为是智慧体。
半个世纪后,贝尔德提出了新的问题:在什么条件下,一台栩栩如生的机器人倘若遭遇痛苦,能让人们感受到伦理困境?她设计了一项旨在测试情感而非智力的图灵测试,她称之为“首足倒立测试”。测试者被要求倒拎着三件东西:一个芭比、一个“菲比”,以及一只真的沙鼠。贝尔德的问题很简单:“在你感到不忍心前,你能倒拎着它多久?”贝尔德的实验假设,社交机器人提出了新的伦理要求。为什么呢?机器人表现得有心智,一般会被视为有内在生命的证据,而无论技术多么粗糙。即使大多数人在意识中并不认为“菲比”有心智,但当倒立的“菲比”呜咽着说它自己很害怕的时候,人们还是会感到自己处于全新的道德境地中。尽管自己也觉得很蹊跷,但潜意识中还是会唤起道德要求。这种情况发生在他们认识到这是个“生物”之时,尽管他们一直都知道它“仅仅是个机器”。
这种双重性使得贝尔德的“首足倒立测试”的结果完全在意料之中。如贝尔德所说:“测试者可以倒拎着芭比,揪着它的头发拎着它……这都没有问题……但测试者却不会用这种方法去虐待小沙鼠。”至于“菲比”,人们会倒拎着它30几秒,当它开始哭闹并说自己很害怕时,多数人都会感到内疚因而将它正立过来。
神经科学家安东尼奥·达马西奥(Antonio Damasio)的研究成果可以解释这种负罪感的来源。达马西奥认为,痛苦的感受有两种层次。第一层是由某种刺激引起的身体痛苦;而第二层则是这种生理感受所引发的伴随性情绪,是生理痛苦的内在表现。当“菲比”说“我很害怕”时,这表明它已经跨越了生理反应和内在感情表现的界限。当人们倒拎着“菲比”时,就像对待一只动物般让其感受到痛苦。“菲比”哭叫出来,好似动物;并随后说话“我很害怕”,好似一个人。
人们会很惊讶于自己在这个模拟痛苦的现场,能够感受到真实的不快。他们继而因为自己感受到了真实的不快而不快。他们通常会安慰自己,说道:“冷静、冷静,这仅仅是一个玩具而已!”他们体会到一种新的感受:你为自己对电脑程序信以为真而感到不爽。参与“首足倒立测试”的人们有两点基本常识:“菲比”是一台机器,他们并不是虐待者。但最终,只是因为“菲比”发出了拟人化的哀吟,试验参与者就置身于全新的道德领域。
如今,我们正以生物和机器的双重性来看待电子物品。宠物、语音、机器、朋友,一系列碎片化的现象共同营造了这样一种经验:我们知道“菲比”是机器,但同时也相信我们可以造成它的痛苦。卡拉是一位年过五旬的妇女,她认为拿着一个在痛苦呻吟的“菲比”的经历很不愉快,“并非因为我真的相信‘菲比’会害怕,而是我不愿意在听到那样的声音后还继续我的行为。这会让我感到如果继续这么做,自己有可能受伤”。对于卡拉而言,“那一刻已经与我具体怎么做无关了,如何对待‘菲比’代表着我平常是如何对待动物的”。
当玩具生产商孩之宝(Hasbro)于2000年推出机器玩偶“真宝”时,就试图尽量远离这些道德困境。凡是真实情况下,婴儿有可能感到疼痛的情景,“真宝”都会关闭。而它的原型机,由麻省理工学院的机器人科学家罗德尼·布鲁克斯发明的机器人IT恰好相反。IT后来进化成新版本BIT(Baby IT的缩写)。它由“真实智慧”、面部肌肉系统和仿真皮肤组成。如果有人用可能会弄哭一个真实婴儿的方式触摸它,它就会哭泣。布鲁克斯用“内在状态”来描述BIT:
如果一个婴儿不高兴,他会一直不高兴下去,直到有人来安慰他,或者他在大哭大闹了一段时间后累得睡着了。倘若BIT受到任何形式的虐待——比如被拎着脚甩动,那么它同样也会非常不高兴。如果还有人拎着它撞到自己的膝盖上,那么它的不快会加剧。但如果是在它高兴的时候,有人做同样的事情,它反而会更加兴奋,会咯咯地傻笑、哈哈大笑,直到累了为止,然后它才会开始感到不快。如果它饿了,那么它会一直如此,直到有人喂它吃东西。它的行为举止就好像一个真的婴儿。
BIT会对虐待的行为产生反应,因此成为了人们围绕其喜怒哀乐所建立的道德坐标的中心。但当孩之宝将其变成产品“真宝”并投入大规模的生产时,公司决定取消其可能对痛苦产生反应的功能。原因是这样的功能可能“激励”玩家对机器婴儿实施残酷的虐待行为。倘若玩家以可能伤害到真实婴儿的强度来触摸、抓住或撞击“真宝”,那么“真宝”就会自动关闭。
孩之宝的广告文案里是这么描述“真宝”的:“它是最真实、最动感的婴儿玩具,适合小姑娘照顾它、养育它。公司将其呈现为一款伴侣玩具,可以教导、鼓励孩子们的交往行为,孩子们学会回应它的各种需求,比如嬉戏、吃奶、睡觉、换尿布等。的确,它在各方面都主打“真实性”,除非你试图伤害它,它就会关闭。当孩子们玩“真宝”的时候,他们的确会尝试各种攻击性的行为。如果打它的屁股,它会关机;如果使劲儿晃动它、让它首足倒立、揪它的耳朵,它都会关机。
孩之宝选择最大化的真实性,却取消对虐待行为的反馈,这引发了很大的争议,特别是在孩子家长中间。一组家长认为,最重要的是避免孩子们的攻击性反应。一些家长认为,如果厂家用“真实”的概念进行营销,而产品却没有对痛苦的反应,那么孩子们就会受到鼓励去粗暴地对待玩具婴儿,而不必付出任何代价。另一些家长的观点则正相反,他们认为如果机器人可以模拟痛苦,才会引发粗暴对待。
第一组家长希望“真宝”应该保留对虐待、攻击行为的反应。这与禁止孩子玩暴力内容的电子游戏的理由一样:他们将这样的经历视为“宣泄”。他们认为孩子们(也包括大人)应该在貌似“真实”、却不会导致任何“真实”伤害的情景里表达自己的攻击性(或悲哀、或好奇心)。但即使是这组家长有时也会对“真宝”不真实的“拒绝”感到欣慰,毕竟没有家长希望看到自己的孩子在虐待一个哭泣的玩具。
无论我们站在哪种立场上,社交机器人已经教会我们在伤害虚拟现实的生命时不再退缩。这当然也是我们训练人们作战的基本方法。首先,我们学会如何杀死虚拟人;然后,当我们对杀戮不再那么敏感时,我们被送去学习如何杀死真人。此项研究的前景提出了可怕的问题。弗里德姆·贝尔德让人们拿着首足倒立的“菲比”,就会引发参与者的不适,那么我们要鼓励人们滥用这些真实性日益增加的机器玩偶吗?
我在课后兴趣小组中观察到,8岁组的孩子们对“真宝”有着不同的反应。阿兰娜为了取悦自己的朋友们,将“真宝”抛到天空,随后又拽着它的一条腿甩来甩去。阿兰娜说机器人“没有感觉”。看着她,人们会疑问:为什么要“折磨”一个没有感觉的物体呢?她也并非用同样的方式对待游戏室内的其他玩偶。斯科特对阿兰娜的行为很沮丧,于是他把机器人偷偷藏了起来,他说:“‘真宝’既像婴儿,也像玩具……我不想让它受伤。”
当斯科特试着给机器婴儿换尿布的时候,站在一旁围观的几个孩子开始用手指戳机器人的眼睛并放到它的嘴巴里。一个孩子问:“你认为那样会弄疼它吗?”斯科特警告说:“宝贝会哭的!”正在这个时候,一个小女孩想要从斯科特手里夺走“真宝”,因为她觉得斯科特并没有很好地保护它:“你放开它!”斯科特反抗着说道:“我正在给它换尿布呢!”似乎是时候停止游戏了。当疲倦的研究团队正在收拾东西准备离开的时候,斯科特悄悄地带着机器人藏到桌子后面,亲了亲它,并和它说再见。这一幕其他的小朋友并没有看见。
在斯科特和阿兰娜所在兴趣小组的混乱情节中,“真宝”如此栩栩如生,以至于可以对其施暴,也值得为其充当保护神。一群成年人(由教师和我组成的研究团队)一直观察着这一切,他们发现自己处在一个不寻常的窘境中。如果孩子们乱扔的是碎布,那么或许我们中间没有人会感到不快,斯科特也同样不会。但换作“真宝”,我们就很难容忍这一幕的发生。无论是哭泣的“菲比”,还是不会哭泣的“真宝”,所有这一切都制造出一幅全新的伦理图景。20世纪80年代,孩子们还只是在假想拼写训练玩具Speak & Spell有生命,卸掉它的电池好比“杀死”它。但如今,社交机器人更直接地提出了伦理的问题。
我的学生与机器人Nexi的一段小故事也可以印证新的伦理问题。Nexi是由麻省理工学院研发的一款无臂人形机器人,它有一张表情丰富的脸,并且会说话。2009年的某一天,我的一个学生为了写论文和Nexi的研发团队预约进行访谈。但由于在时间安排上双方的误解,我的学生只能独自等待,而她正坐在离Nexi不远的地方。这段等待的时间让她非常沮丧,因为她发现:当不与人互动的时候,Nexi平常会被放在帘幕后面,并且被布完全遮住。
在此后我的一次研讨会中,这位学生与其他人分享了这段经历。“这非常令人沮丧,”她说,“帘幕——为什么它要被布遮住眼睛?我正是因此而沮丧。”被布裹住、蒙住眼睛的机器人Nexi点燃了那次讨论。在讨论中,所有人都用“她”来指代机器人。设计者已经尽一切可能赋予机器人以性别。如今,用布遮住机器人的双眼暗示着“她”拥有视力和意识。在课堂中,讨论继续向前推进:蒙住双眼是因为人们看到Nexi的眼睛会感到恐惧吗?或许当它关机的时候,“她”的眼睛还是睁开的,如同死人的眼睛?又或者机器人的设计者不愿意Nexi能够“看出来”?或许他们不愿意让机器人知道,“她”已经不再被使用而是被闲置在帘幕后的角落里?这一系列疑问将研讨会推向了一个更加让人不安的问题:如果Nexi已经智慧到需要用布盖住,才能让“她”对自己身处的环境不完全了然,那么这是否意味着她已经具备足够的主体性,而使得周边的环境很不人道?学生们在一个问题上达成了共识:用布遮盖住Nexi的眼睛意味着“这个机器人可以看见”,而看见则意味着理解和内在生命,而这都足以导致“不人道”。
西格蒙德·弗洛伊德曾经提出过“怪熟”(uncanny)现象:指的是有些东西你觉得非常熟悉,但同时又非常陌生,导致一种不舒服的、异样感觉的情形。“怪熟”的对象处于标准的分类之间,并且挑战既有的分类标准。看见闲置的玩偶是很寻常的事情,但通常我们并不需要盖住它的眼睛,因为只有我们才能赋予它生机。看见别人神情丰富地向我们打招呼也是很寻常的事情,但如果有人竟然盖住他的脸并把他安顿在帘幕后面,那是自讨惩罚。会表达恐惧的“菲比”和被遮盖住眼睛的Nexi对我们来说,正是计算机文化中的“怪熟”之物。
更有甚者,有一款设计得非常貌美的“女性”机器人产品Aiko如今已经开始出售。当你太使劲地按压“她”的皮肤时,“她”会说:“请放开……你弄疼我了。”这让我感到更加不舒服。当有人触碰“她”的胸部时,“她”还会抗议说:“我很厌恶你碰我的胸部。”我觉得这些关于人际交往边界和礼节的程序非常令人困惑,倘若不是因为机器人被设计拥有一个性感的躯体,是很难想象会听到这样的抗议的。
从浪漫反应到机器人时代
也许不用太久,就可以看到机器人因为你受的伤害而饱受“煎熬”。也许很快,仿佛顺道拜访老朋友一样与机器人交谈,也会成为人们习以为常的事情。随着我们与机器人交互的经验不断累积,随着我们学着如何在新的情景中生活,孩子和大人也许都会提出这样的问题:“为什么我在和一个机器人交谈?”“为什么我希望这个机器人喜欢我?”也许我们只是被有所陪伴的愉悦所吸引。
20世纪八九十年代的浪漫反应认为,只有人可以互相贡献。这一理解出自人们共同的经验。它强调人类精神中有一些本质的东西是无法复制和模仿的。在20世纪80年代早期,当时12岁的戴维在学习了计算机编程后,这么描述人和程序的区别:“当计算机和人一样聪明的时候,它会替代人做许多工作。但尽管如此,还是有许多事情只能由人来完成。只有人能开餐厅,品尝美食,相亲相爱,成立家庭。我想也只有人才会去教堂。”成年人也谈及了家庭生活。而对于我来说,浪漫反应来自于人们如何决绝地向计算机心理治疗师袒露心声:“我怎么可能向一个没有母亲的机器谈论同胞争宠的事情?”
当然,浪漫反应的元素依然在我们的周围,但如今我们更强调通过技术分享什么。随着精神药理学的发展,如今我们将大脑视为生化工程的机器。脑成像技术让我们相信,即使是人类的情感也可以被还原成为图像。我们目前的治疗文化从内在生命转向为聚焦于行为力学,而这是人和机器人所共有的。
我曾经就“机器人成为知己的可能性”进行过两次谈话,第一次在1983年,第二次在2008年,两次相隔25年。对于我来说,这两次谈话之间的差别标志着从浪漫反应到机器人时代的实用主义的变化。两次谈话都是与波士顿附近的十几岁男孩进行的;他们都是波士顿红袜队的球迷,并且和他们父亲的关系很好。1983年,13岁的布鲁斯谈论机器人时,强调人具有独特的“感情能力”。布鲁斯认为,机器人和电脑都是“完美”的,而人“生而不完美”,有缺陷,也很脆弱。他认为机器人“可以完美地做好任何事情”,而人“尽自己所能做好事情”。但对于布鲁斯来说,他认为正是人的不完美才能让人与人之间产生亲密的感情纽带。他特别举了自己的例子,比如自己的许多缺点让他感到和父亲很亲近,“我和我爸爸有许多共同的特点……我们都有点乱糟糟的”。完美的机器人永远都不会理解这种非常重要的关系。如果你自己也是不完美的,那么就去与人交往吧。
25年后,同样的话题却走向了完全不同的方向。15岁的霍华德将他的父亲和机器人伙伴做了对比后发现,父亲在很多方面不如机器人。霍华德认为,机器人能够更好地理解高中生活的复杂性:“它的数据库比爸爸的更庞大。爸爸只知道基本的事情,但并不足以理解高中生。”25年前,布鲁斯认为机器人不能够思考家庭生活;25年后,霍化德认为机器人经过特别的训练后,可以照料“老人和孩子”,而这是他周围的人并不特别热衷做的事情。
霍华德不认为人比机器有什么独特性。在他看来,“人类并不垄断”理解和关怀彼此的能力。每个人都受到自己生活经验的束缚,但“计算机和机器人可以被设计成拥有无限的知识”。霍华德讲了一个故事来证明,为什么机器人可以比他的父亲给他更好的建议。当年早些时候,霍华德喜欢上了学校的一个女生,而那个女生已经有男朋友了。于是他询问父亲是否应该约这个女生出来。他的父亲根据自己上高中时的经验,认为即使那个女孩有男朋友,也应该约她试试。霍华德认为他爸爸的建议是早已过时的所谓“男子气概”,由于担心插足可能导致悲剧而没有采纳他的建议。他认为在这件事情上,机器人会比他爸爸给出更加聪明的回答。机器人“会被上传许多经验”从而作出正确的回答,而他爸爸的经验数据库非常有限。“机器人也可以被设计成通过观察人的行为,从而理解诸如嫉妒等情感……机器人也可以是完全善解人意、思想开放的。”霍华德认为,机器人作为知己具有许多无法替代的优势。“至于人,”他说,“是具有风险的。”他认为机器人更“安全”。
有些事情你是不能跟你的朋友或家长讲的,但你可以告诉智能机器人。然后它可以给你非常靠谱的建议……我相信它可以借鉴类似情况下、前人的知识,有你的知识,也有你朋友的知识,然后给出最好的建议。我认识许多十几岁的年轻人在感情问题上遭遇困扰,然后却作出了错误的决定。
我请霍华德想象他和机器人第一次对话的情景。他说他会首先问机器人“什么是快乐?如何获得快乐?”然后再问问“人类易犯错误的特点”(human fallibility),即那些导致“错误”的原因。从布鲁斯到霍华德,人类易犯错误的特点已经从亲密关系的利好因素变成负担。
没有哪一代家长在他们孩子的眼里是被看成专家的。但霍华德这一代人所见证的新关系是他们的父母辈从未预料到的。这一代人认为人工智能可以监控他们的电子邮件、电话、网络搜索和即时信息。这种智能机器可以通过自行搜索扩充自己的知识,从而形成几乎无限的数据库。因此,他们许多人想象通过这样的搜索和数据存储,人工智能或机器人完全可以满足他们的需要。正如他们所见,如今人工智能理解霍华德所言“不同的社会选择如何解决问题”,已经不再有任何技术障碍。拥有知识以及为你的利益服务的目标,“和它聊聊生活、感情的纠结,以及友情的困扰是很好的选择”。
生活?感情的纠结?友情的困扰?这些本是浪漫反应最神圣的核心部分,是只有人类才被允许进入的情感领地。霍华德却认为这些都可以被浓缩为信息,机器人可以成为这方面的专家和知己。我们已经来到机器人时代。
正如我所说,我对于机器人时代的故事不会太多集中在技术的先进性上,而是会更多地关注我们对于社交机器人的强烈反应。与我们强烈的期望值比起来,如今机器人能做的还很少。随着新机器人的不断面世,我们的期望值也越来越高。我发现,我们的确是很脆弱的;而我相信,这种脆弱存在着很大风险。