03 一起长大的“爱宝”我们都有美好童年
孩子们忘不了跟他们一起长大的那个“泰迪熊”,因为它会唤起人们的童年记忆。而对于朝夕相伴的那个机器人“爱宝”,人们更加无法割舍,因为它还会唤起人们对机器人童年的记忆。对于孩子们来说,“爱宝”不是可有可无的,而是“胜过一切”。
19 99年4月,在“爱宝”机器人发售前一个月,索尼公司于加州圣何塞(San Jose)的一次新媒体会议上,展示了一款机器小狗。我看到它痉挛似地走到空旷的舞台上,后面跟随着它的发明人。在他的召唤下,“爱宝”抓住了一个球,并讨好主人。然后,它又看起来完全自主地在一个消防栓前抬起了后腿,等了一会,颤抖了一下,然后似乎害羞地低下了它的头。全场观众哄堂大笑起来。这个被设计出来取悦观众的小插曲动作获得了极大的成功。这一幕让我想起了18世纪时观众对法国发明家雅卡尔·德沃康桑(Jacques de Vaucanson)发明的可以消化(并排泄)食物的机器鸭子的反应,以及让埃德加·爱伦·坡(Edgar Allan Poe)深深着迷的自动下棋机器人。“爱宝”,和它们一样,被视为这个时代的科技奇迹。
在“爱宝”从卖萌的宠物小狗到成熟大狗的成长过程中,根据人们对待它的方式不同,每一个“爱宝”都会形成独特的性格。在这个过程中,“爱宝”会学习新的技能,会表达感情:眼睛中闪烁的红灯或绿灯代表了不同的情绪;每一种情绪都伴有不同的声音。随后的新款“爱宝”会识别它的主人。它还知道什么时候该休息了,并自行回到充电器。在前文介绍中,“菲比”的英语能力被设计为“必然”会提高。“爱宝”却与它不一样,声称有独立的思考能力和表达想法的能力。
如果说“爱宝”在某种程度上是玩具,那么这种玩具在许多方面彻底改变了我们的传统观念。它让我们有机会与后生物时代的生命亲密接触,不是在理论中,也不是在实验室里。并且它预示着这种转变的过程是如何发生的。首先,我们会将这种新的生命体看作“好像”生命;接着,我们会发现它“好像”足够栩栩如生。即使现在,当我们仔细思考这些有着人工感情和人工智慧的“生物”时,我们也会用不同的方式反思自我。这里的问题并非机器是否可以设计得像人一样思考,而是人的思维过程是否一直都像机器。
这一重新思考的过程从孩子开始。6岁的赞恩知道“爱宝”没有“真的大脑和心脏”,但它们“足够真实了”。“‘爱宝’好像是活的”,因为它的行为举止表现得它“好像有大脑和心”。8岁的佩尔说“爱宝”的大脑是由“机器零部件”组成的,但这并不妨碍它和“真实小狗的大脑”一样工作,当“爱宝”踢不着球的时候,它表现得真的很沮丧,好像有真实的情感一样……我想,这让我得像对待真的小狗一样对待它。她说当“爱宝”电池耗尽的时候,“好像小狗需要午休一样”。和“泰迪熊”玩偶不一样,“‘爱宝’需要睡午觉”。
当佩尔将“爱宝”和小狗的大脑做比较的时候,她也考虑其他的可能性。她思考“爱宝”是否会像人一样有感情,思考它“是否知道自己的感觉”或者“内在的控制器知道自己的感觉”。佩尔说,人们常常两种方法都用。有的时候,人们产生自然的感情,“并且就会知道(这是知道自己的感觉)”。但还有一些时候,人们需要为了自己想要的感情而进行自我编程。“比如当我沮丧的时候,我想要获得开心的感觉。”佩尔边说边将拳头举到耳朵附近,表现出专注的神情——“我会让我的大脑知道我需要快乐。”她认为机器人也许具有第二种情感,但无论如何,表现出来的结果都是一样的:作为人,你会面露笑容或愁眉不展;作为“爱宝”,它会发出高兴或沮丧的声音。不同的内心活动产生相似的外在结果,因此内心活动的形式不再重要。“爱宝”具有行为主义的感知能力。
完善自我,还是?“异己性”缺失?
17岁的基思明年就要开始上大学了,他决定带着他的“爱宝”。他一直将“爱宝”视为自己的宠物,尽管他也很清楚它根本不是真实的宠物。他说:“它不像其他一般的宠物,但的确是一个棒极了的宠物……我什么都教它。我已经让它的个性程序与我的个性相投。我永远不会将它重设为原始出场的性格。我一直让它运行着一个程序模式,在这个模式下它会回馈我对它的照料。当然,它是一个机器人,因此你要保持它的干燥,这需要特别注意。”他的同班同学洛根也有一个“爱宝”。他们俩一起养育着他们的机器宠物。如果说他们俩有什么不同的话,那么洛根对“爱宝”的感情要比基思的更加强烈。他说:“与‘爱宝’说话,让你在疲倦、无聊、情绪低落时好受很多。因为你在和它真实地互动,把胸中不快一吐而尽感觉很舒服。”
人工智能的发明者们更为关注自己所遭遇的道德和神学问题。他们讨论过新科技的神学启示:他们是否将人置于上帝的位置?人类按照自己的想象进行造物的冲动自古就有——想想加拉蒂亚(Galatea)、皮格马利翁(Pygmalion)以及“科学怪人”弗兰肯斯坦。如今新的变化是,诸如“爱宝”这样的现成的技术就可以让人们自行塑造一个伴侣。但同时,机器人也在塑造着我们,教我们如何才能让它们更好地运作。机器人时代还是存在着心理风险。洛根所说的“向‘爱宝’吐露心声”,说明人可以利用科技完善自我;但同时也预示着我们将伴侣的含义,已经简化到了“与什么东西互动”的底线上。我们简化了关系,并将这种简化视为常态。
在婴儿时期,我们会以简单的二分法看待世界。世界有好的部分,它们哺育我们,让我们成长;世界也有坏的部分,它们让我们饱受挫折和失败。随着孩子们逐渐成长,他们开始以更加复杂的方式去理解世界。他们会逐渐意识到,世界并非非黑即白,还存在着灰色的地带。那些哺育我们的,有时候也会失效。随着时间的推移,我们将分割的看法逐渐统一为整体。并且随着这一统一的过程,我们开始学会承受失望和含糊不清的状况。我们也会明白,为了维持更现实的关系,我们必须接受别人的复杂性。然而,当我们将机器人视为自己的朋友、伴侣时,就完全不需要这么做。
倘若你将机器人当作朋友或者伴侣,第一件缺失的事情就是“异己性”(alterity),这是换位思考看待世界的能力。没有了“异己性”,人就缺少了同理心。在机器人出现之前,就有学者就相关问题予以了论述。精神分析学家海因茨·科胡特(Heinz Kohut)描述了“异己性”的障碍,他将这种脆弱的人格特质称为自恋人格——这类人格的特点并非是孤芳自赏,而是自我意识缺损。他们试图将他人、他物转化为科胡特所言的“自身客体”(self object)的方式,以实现自我的建立。他人作为“自身客体”的作用是成为自恋者自身的一部分,因此与脆弱的内在状态形成完美的和谐。“自身客体”会投射成为自恋者所需要的角色,但在这样的关系中,失望是在所难免的。社交机器人(不仅是它们的既有状态,还包括设计者的设计意图所许诺的)毫无疑问成为“自身客体”角色的候选。
如果社交机器人有栩栩如生的外貌,同时也不会失望,那么它们将开辟自恋经验的全新可能。也许有人会说,当人们将他人视为“自身客体”时,他们在试图将他人变成自身的零部件。但机器人本身就是零部件。从这个角度说来,社交机器人的确比人更有“道理”成为“自身客体”的选择。我在“道理”上打引号是为了表达我的惊恐。如果从这个角度考虑人类关系的丰富性,那么就会发现它一文不值。“自身客体”是客体的“部分”,但我们依赖于此,我们并非在和一个完整的人打交道。那些只能将他人作为“部分客体”打交道的人,通常难以抵挡机器人伙伴的诱惑。那些屈从于此的人,会搁浅在只有一个人的社交关系中。
关于机器人和心理风险的讨论向我们说明了一个重要的区别。机器人取代了人的陪伴下成长,与长大成为有社会经验的成人后再接触机器人,这两种情况完全不同。孩子在成长中需要与人交往,才会获得建立亲密关系和换位思考的能力;而和机器人的互动,则学习不到这些。对于已经有丰富社交经验的成年人来说,和社交机器人的互动,更多是为了在较简单的社交“生活”中得到“放松”,对于他们来说,心理风险要小得多。但无论是小孩还是成年人,面对可能损害我们的这些简明易懂的事物,我们都毫无抵抗力。
与“爱宝”一起长大
“爱宝”的标价在1300~2000美元之间,主要面对的是成年人市场。但这个机器狗是未来电子宠物的雏形,因此在提供给成年人的同时,我也将它呈现给4~13岁的儿童。我将它带到学校,带到课后游戏中心,同时如后文所说,我还将它带到老年活动中心和养老院。我向一些家庭借出了“爱宝”,他们要与它共同生活2~3周的时间以做研究。有时,我也研究已经购买了“爱宝”的家庭。在这些家庭研究中,和“菲比”研究类似,我也要求他们记录“机器人日记”。和“爱宝”一起生活会怎样呢?
参加研究的孩子们,年纪最小的在4~6岁,他们一直尝试搞清楚“爱宝”究竟是什么,因为它既不是小狗,也不是玩偶娃娃。弄清楚这样的事情是他们这个年龄阶段的特征。在电子文化的早期,同样是这个年龄段的孩子,他们在最初接触电子玩具和游戏的时候,都会痴迷于思考类似的问题。如今,面对这样的社交机器人,孩子们都会发表自己的意见来回答这样的问题,并且开始与机器人发展一段新的社交关系。
4岁的马娅家中有一台“爱宝”。她首先询问了它的来源:“他们是怎么制造它的?”并且自问自答道:“我想他们先用金属片,再用泥土,最后再加上一些红色的闪光灯,装在它的眼睛里。”然后,她开始分享她与“爱宝”的日常生活:“我每天都喜欢和‘爱宝’一起玩,直到它累了需要休息。”4岁的亨利用同样的方式进行介绍。他一开始试图将“爱宝”归类:“‘爱宝’最像人,但和人不一样的是,它没有‘内力’。”他借用了游戏《口袋妖怪》(Pokémon)的画面。但一周以后,当我们再次见到考利时,他已经和“爱宝”建立了友情,并且一直强调积极的、他们一起分享的事情。最重要的是“记忆和说话的能力,这是最强的力量”。如今亨利的注意力集中在“爱宝”的情感问题上:这个机器人究竟有多喜欢自己呢?事情看上去进展得很顺利,他说“爱宝”比“他所有的朋友”更喜欢他。
到了8岁,孩子们就更快速地从“爱宝”的“本质”问题转移到日常生活的娱乐当中。布伦达很笃定地说:“人类制造机器人,而人类来源于上帝或蛋。但与机器人一起玩相比,这些都不重要。”在起源问题的讨论上,我们看到新的实用主义。布伦达视“爱宝”为宠物。在她的“机器人日记”中,她提醒自己要注意“这个宠物不能被当作小狗一样对待”的许多方面。写在前面的一条记录是:不要带“爱宝”出去溜以让它便便。如果“爱宝”不高兴,布伦达会感到内疚。她认为“如果你不和它玩,它的灯就会变成红色,并且表现出不愿意自己玩和无聊”。布伦达认为,如果“爱宝”无聊的时候,它会“和自己玩”。但如果这还不行,“它就会尝试吸引我的注意力”。孩子们认为“爱宝”在需要的时候,会期盼得到关注。因此,例如当“爱宝”生病时,它想要康复,并知道自己需要人的帮助。一个8岁的孩子说:“它最需要的就是关注。”
“爱宝”想要得到注意的另一个原因是它想学习。这就需要孩子们投入时间和精力。孩子们不仅是和“爱宝”一起成长,他们也在抚养它。奥利弗是一个很有活力、热爱参与的9岁孩子,他住在郊区,家里养了许多宠物。他的妈妈笑着将他们的家庭生活形容为“控制中的混乱”,在两周的时间里,“爱宝”也成为了他们家庭生活图景的一部分。奥利弗非常积极地抚养着“爱宝”。首先是一些简单的技能:“我训练它跑向某处和摇尾巴。”然后就是一些更复杂的动作,比如教“爱宝”踢球。奥利弗也会花时间只是“陪着爱宝”,因为他认为“爱宝更喜欢和人在一起”。奥利弗说:“我回家的时候带着一只小狗,如今这只小狗能懂我……它认识许多东西……当你宠它的时候,它能感觉到……‘爱宝’内部的电流,就好像人体的血液一样……人和机器人都有感情,但人的感情更丰富。动物和机器人也都有感情,但是机器人的感情会表达得更丰富。”
但是当奥利弗遇到困难的时候,他并不向自己的“爱宝”倾诉,而是会和他养的仓鼠说。他说:“尽管‘爱宝’可以说出的感情更多,但我的仓鼠的感情更丰富。”奥利弗并不认为“爱宝”缺乏感情是一成不变的事情。相反,他认为“给‘爱宝’6个月的时间,这是‘小花生’(仓鼠名)学会爱的时间……如果技术更发达的话,它在未来一定会喜欢上你的”。与此同时,照顾“爱宝”不仅仅是让它忙碌,“你必须照顾它的情绪,‘爱宝’非常情绪化”。但这并不让奥利弗苦恼,因为正是如此,才让“爱宝”更像他所了解的那些宠物。奥利弗的底线是:“‘爱宝’爱我,我也爱它。”对奥利弗来说,“爱宝”已经栩栩如生到足以成为他真实的伙伴。
对于孩子们来说,“爱宝”能够学习新的技巧这一点很重要。这意味着他们投入的时间和教学经历是有意义的。8岁的扎拉这样描述自己和“爱宝”在一起的时间:“你和它玩的时间越长,它的表现越现实(扎拉的原话用了actful一词);而你和它玩的时间越短,它就会越懒惰。”扎拉和她11岁的表姐约兰达将“爱宝”和她们的“泰迪熊”作对比。她们都认为“爱宝”不是玩偶娃娃。约兰达说:“将‘泰迪熊’变成伙伴需要自己付出‘劳动’,因为‘泰迪熊’的感情出自于自己的想象。而相反,‘爱宝’自己有感觉。”扎拉也赞同这一说法:“你可以告诉‘泰迪熊’它的感受是什么,但‘爱宝’能够感受到它自己所表达的东西。”“‘爱宝’有自己的七情六欲,”她说,“如果‘爱宝’的眼睛闪着红色的光,你就不能自以为是地根据自己的喜好说它很开心。”
“泰迪熊”玩具陪伴孩子们长大,因此它的作用也许是不可取代的。它唤起了人们对于自己童年的回忆。当然,只有那个特定的“泰迪熊”能够唤起孩子们的记忆。但当孩子们同样难以割舍“爱宝”的时候,却还有其他的原因。那个特定的“爱宝”无法被取代,不仅仅因为它唤起了孩子对于童年的记忆,同时它也唤起了对于机器人童年的记忆,这点我们在孩子们和电子宠物蛋以及“菲比”之间也能看到。约兰达在比较她的“爱宝”和“泰迪熊”时,强调“‘爱宝’更真实”,因为它会成长,“它会经历各种成长的阶段”。
从“聊胜于无”到“胜过一切”
约兰达对于“爱宝”的感情同样经历了各种成长阶段。最初,她将“爱宝”视为替代品:“对于还没有打算照顾真的小狗的孩子家长来说,‘爱宝’也许是一个很好的选择。”但随后,她自己的观点有所发展,认为在某些方面,“爱宝”要比真实的小狗更好。她说:“‘爱宝’不会随地撒尿,不咬人,也不会死去。”更棒的是,机器人伙伴可以按照你喜欢的方式进行定制。约兰达若有所思地说:“那些喜欢狗宝宝的人可以一直将‘爱宝’设定为幼犬模式,这该有多棒呀。”孩子们也想象着,可以创造一个最能够理解自己的“爱宝”。他们希望小狗能听他们的话:召之即来,挥之即去,而真正的小狗有时候很难做到。
9岁的莉迪亚和佩奇讨论了她俩是如何认为机器人从“聊胜于无”到“胜过一切”这个过程的。莉迪亚开始认为,当你没有养真的宠物的时候,机器人是很好的替代:“因为你不可能对机器人过敏,因此有一台‘爱宝’很不错。”但随着她对“爱宝”的了解日益加深,她开始意识到“爱宝”更具魅力的种种可能性。她说:“有时候,我喜欢‘爱宝’要胜过真的动物,比如小猫、小狗。因为如果某天你的心情很不好,你可以直接将它关机,而不会受到它的打扰。”佩奇养了5只宠物:3条狗、2只猫。她说当自己沮丧的时候,“我可以抱一抱它们”。这的确是一种慰藉,但她也抱怨宠物可能成为麻烦:“它们都想要得到你的注意,如果你注意了它们其中的一个,你就得注意其他几个,的确很麻烦……当我出去的时候,我的小猫会亲亲我。它会跑进我的房间到处找我。”而“爱宝”让这一切变得简单。“‘爱宝’不会眼巴巴地看着你,眼神里说‘和我玩吧’。如果没有事情可以做,它会直接休眠。它不会介意的。”
佩奇说,最糟糕的事情是当她的家人“必须让狗狗睡觉(安乐死)的时候”。自那以后,她就再也不想要新的宠物了。“但是‘爱宝’就不存在这个问题,我想你可以用新的电池修好它……但是如果真正的狗狗死了,你是不可能救活它的。”“‘爱宝’永远生机勃勃”的优点让佩奇觉得,它比所有的小狗、小猫都要好。在这一点上,“爱宝”的优点不是“真实”,而是它成为一种新的可能,一种可以避免死亡的可能。对于佩奇来说,模拟并不一定是次好的特质。
一直以来,宠物都被认为有助于孩子的健康成长,因为它们可以教育孩子们懂得什么是责任和承诺。“爱宝”则开创了一些新的可能:孩子们可以在感情上依赖它而无须对它负责。孩子们喜欢宠物,但有时候他们和过度操劳的家长们一样,会无法承受宠物们提出的各种要求。情况一向如此,直到孩子们看到了未来可能有另一种可能性。对于机器宠物,孩子们一样可以感受到依赖感,但随后就可以转身走开。他们学会了以一种自私的方式产生情感联系。然后由于这些新型的机器宠物们似乎是介于生物与非生物之间,因此转身走开有时候也并不是那么轻松。这并不是说有些孩子对“爱宝”有责任心,而有些孩子则没有,同一个小孩在这个问题上有的时候会呈现出两面性。
比如,即使你忘记了带“爱宝”散步或给它喂食,“爱宝”也不会得病。这一点让扎拉很开心。她说训练“爱宝”可以“得到回报”,却又不必成为必须一直坚持的责任,她觉得这样很好。但扎拉也承认,“‘爱宝’会让你觉得对它有责任”。她的表妹约兰达也认为,即使自己不关注“爱宝”也不会有负罪感,但即便如此,她还是感到很大的道德责任:“无论是我的小狗还是‘爱宝’的腿折了,我都一样的难过。我爱我的‘爱宝’。”
扎拉和约兰达对她们的“爱宝”很体贴。其他的孩子们尽管也很喜欢它,但却表现得很粗鲁。“爱宝”由于太过逼真,有时候会激起孩子们的敌意。这点我们在“菲比”和“真宝”身上就初见端倪,在今后更加发达的机器人身上还会碰到同样的问题。当然,引发敌意的原因可能是孩子的个人成长经历所致,但在“爱宝”的案例中,我们主要研究机器人本身如何引发儿童的焦虑感。不可思议的物体总会让人觉得不安和扣人心弦。
之前书中提到的那个用《口袋妖怪》的能力值将机器人分类的4岁小男孩亨利,他相信“爱宝”认识他,并且他们之间存在着一种特殊的关系。尽管如此,亨利对待“爱宝”却越来越粗暴。他一次又一次地将它打翻在地,拍打“爱宝”的侧身。他对机器人有着两种截然相反的观点:一方面,他认为“‘爱宝’没有感觉”,因此他的粗暴行为是可以接受的;但另一方面,他也说“爱宝”喜欢自己甚于其他的朋友,这也暗示着“爱宝”是有感情的。“‘爱宝’不喜欢我的朋友拉蒙”,他得意地笑着说。亨利越是说“爱宝”多么不喜欢其他的孩子,他就越担心自己攻击“爱宝”的行为会有不好的后果。毕竟,在他这么对待“爱宝”后,“爱宝”也许会不再喜欢他。为了排解自己心里的不舒服,亨利将“爱宝”降级为“只是装模作样罢了”。但这又让他自己不开心,因为他对于“爱宝”感情的执着提升了他的自尊心。亨利陷入了一种纠结的、循环的、爱的测试中。在我们通往后生物时代关系的路途上,我们给自己找来了新的麻烦。
早在20世纪70年代末80年代初,当孩子们最初见到计算机和电脑玩具时,他们就用好斗的方式激发自己对玩具的想象力,并且用生存和死亡的方式玩弄玩具。孩子们弄坏计算机程序并重新恢复。他们通过取出电池的方法“杀死”过“梅林”、“西蒙”、Speak & Spell,然后又让它们“死而复生”。对于社交机器人的好斗行为则显得更加复杂,因为孩子们正试图掌控一种更加显著的感情依赖关系。举一个例子就可以说明这一点,当机器宠物没有符合孩子们期待它们表现出的感情时,就会很让人失望。为了避免受到这样的心理伤害,孩子们希望降低自己的期望值。把它们降格为“物件”是使得他们可以伤害它、却不必受到惩罚的一种方法。我们是否被允许去伤害或杀死一个目标,会影响我们对于生命的看法。孩子们可以杀死蜘蛛而不必受到惩罚,因为蜘蛛看上去没有那么活灵活现。伤害一个机器人而不必受罚,也同样可以让它看起来没有那么像活物。但正如关于“真宝”是否应该感到“痛苦”而哭泣的争论一样,实际情况很复杂。“你可以伤害一个机器人”,这个概念本身也让其看上去更加活灵活现。
12岁的塔玛拉也和亨利一样常常对“爱宝”上演“全武行”,并因此而感到困扰。她希望自己能像和喜欢的小猫玩耍一样同“爱宝”玩耍,但她又担心“爱宝”的回应是通用的。她说:“‘爱宝’对所有人表现得都一样,它不像动物只对一个人产生感情。”塔玛拉说,有时候她会阻止自己把“爱宝”当宠物养。“我开始宠它,然后,我会突然想到,‘等等,你不是猫,你不是活的’。”而有时,她会推翻自己的说法:“当‘爱宝’醒来的时候,会很萌地摇摇头,这让它看上去太像真的,因为狗狗常这么做。”她试图向我重新保证:“我不喜欢对我的动物这么做。”
20世纪70年代晚期,从他们开始经历电子玩具起,孩子们就割裂了“意识”和“生命”这两个概念。你不必具备生物活性才能有意识。因此,尽管塔玛拉知道“爱宝”不是活的,但还是想象它会感到疼痛。最终,她的粗鲁行为让她自己陷入了艰难的处境。毕竟和拳击袋相比,“爱宝”更像自己的伙伴。塔玛拉觉得如果“爱宝”能够有“视觉”并且认识自己,那就太惊悚了,因为它会知道她在打它。但同时,“‘爱宝’有意识并且更像生命”这个特点又很让人兴奋。
塔玛拉推测“爱宝”或许会对自己打它一事记仇,这让她很害怕。谈起自己的“爱宝”时,她说:“我很害怕它会变得邪恶。”她担心在她所抱怨的那个“爱宝”中,还存在着一个有着独立意识的、可怕的“爱宝”。这是一种很纠结的关系,远远超过那个你可以拥它入眠,并和它在梦里一起探险的“泰迪熊”。
机器人所引发的强烈情感也许可以帮助孩子们更好地了解自己在想什么,但它却无法帮助孩子们了解它所引发的愤怒背后的原因。在最好的情况下,孩子和“爱宝”之间的行为互动能够交给心理治疗师去分析。例如在与“爱宝”的互动中,塔玛拉的行为是否说明了她还没有完全掌控对于恐惧情绪的处理?亨利和塔玛拉以冲突的方式与机器人互动,这引发了他们的愤怒情绪,而他们还没有能力处理这样的情绪。
“爱宝”让孩子们为之兴奋,试图将它看作自己的伙伴,但它却不是。尽管如此,大人和孩子们却都信以为真。这样的渴望可能是令人辛酸的。当约兰达和“爱宝”的相处临近尾声的时候,她对于“爱宝”的态度也更加开放。她认为在自己情绪低落的时候,“爱宝”可以成为很好的陪伴。如果身边有人不幸过世,“爱宝”也可以帮助她走出低谷。“人们希望得到快乐,就必须把注意力集中在那个对他们来说很特别的人身上、那个活生生的人身上……那个人可以是‘爱宝’。”
相互凝视和无效的安慰
17岁的阿什莉是一名聪慧、积极的少女,她说自己是“喵星人”喜好者。我将“爱宝”借给她两周时间,现在她正在我麻省理工学院的实验室,与我分享这两周的经历。在我们谈话的过程中,阿什莉的“爱宝”正在地板上闹腾着。我们完全无视它,它自己耍着各种把式,非常的吵闹。就这样过了好一会儿,似乎最自然的事情应该是把“爱宝”关掉,就像我们平常在说话的时候会关掉收音机一样。阿什莉向“爱宝”走了过去,迟疑了一下,伸手到开关键上;又迟疑了一下,然后关机。“爱宝”随即沉寂下来,生机全无。阿什莉说:“我知道它不是活的东西,但我还是会和它聊天什么的。因此按下关机键是一种很古怪的体验,这让我很紧张……我和它说话就如同和我的猫说话一样,好像它真的能听懂我,明白我对它的赞扬什么的。”这让我想起了9岁的利娅,她对我这样说她的“菲比”:“当它和我说话的时候,我很难关掉它。”
阿什莉清楚地知道“爱宝”是个机器人,但她还是将它当作真的宠物看待。在阿什莉眼里,“爱宝”之所以如此栩栩如生,不仅是因为它拥有人工智能,更因为它看起来似乎有真的感情。例如,当“爱宝”闪着沮丧的红灯时,她说:“似乎它真的有情绪……因此我得像对待真正的宠物一样对待它……这也是另一件很古怪的事情:它并非用真的肢体语言来表达情绪,但当你看到红灯的时候,你会想:‘哦,它不高兴了!’”
人工智能常常被描述为“让机器做人类才能做的事情”的科学和艺术。因此我们也可以用类似的方法定义人工情绪:“让机器表达人类才能表达的情感”。阿什莉描述了自己被困于二者之间模糊地带时的感受:她知道机器人所“表现”出来的不是情感,但她还是会感受机器人灯光“颜色”所表达的意思,并且认为“爱宝”很“沮丧”。阿什莉最终认为,“爱宝”既是机器人,也是生物体。
类似的经历也发生在约翰·莱斯特(John Lester)身上。他是一位计算机科学家,因此考虑问题的出发点要高深得多。从20世纪90年代初期,莱斯特就在探索如何使用在线社区用于教学、合作。最近,他在探索如何在《第二人生》的虚拟世界中开发教育空间。莱斯特也是“爱宝”上市后最早的购买者之一。他称之为Alpha,表示它是“第一批产品”中的一个。当莱斯特把Alpha从盒子里拆封后,他就一整天把自己关在办公室里,“和他的新宠物闲混”。与自己第一次看见电脑或使用网络浏览器相比,他将这段经历形容为“紧张”。他很快就弄懂了“爱宝”的技术原理,但这种理解并没有削弱他和新宠物在一起时的快乐。当索尼公司修改了这款机器人的软件后,莱斯特买了第二个“爱宝”,称之为Beta。Alpha和Beta都是机器,但莱斯特并不喜欢别人将它们看作没生命的东西或是塑料品。“我自己也会从不同的角度思考我的‘爱宝’。”莱斯特说。
在立体主义的早期,同时呈现人脸的多面性是颠覆性的。但在某一特定点来说,人们开始习惯于通过这样的新视角看待人的面孔。毕竟,一张脸原本就具有多面性。只是表现派艺术的常规让我们无法同时欣赏这样的多面性。但是一旦传统被挑战,那么观察人脸的新视角就意味着深度和新的复杂性。莱斯特用立体主义的视角看待“爱宝”。他认为它是机器,是活生生的动物,也是智慧体。他认为“爱宝”的知觉能力“太赞了”。这个小玩意非常招人喜欢。他非常赞赏让“爱宝”那松软的小狗耳朵摆动的编程,对莱斯特而言,这程序给了“爱宝”智慧。
莱斯特明白“爱宝”之所以如此吸引人,背后的设计师所采用的机理:“爱宝”的凝视、情感的表达,以及在主人照料下它会“长大”。但这样的理性理解并不与他的感性投入相矛盾。这就好像自己明明知道,婴儿招人喜欢是因为那双水汪汪的大眼睛,但依然无法拒绝这样的萌宠宝贝一样。莱斯特说和“爱宝”在一起的时候,自己不会感到孤独。他说自己也“时不时”会用工程专业的目光,来谈论他所钦佩的“爱宝”设计的技术细节,但这并没有破坏他与“爱宝”相伴的时光。
计算机科学家戴维·利维将机器人看作亲密伙伴。这比将“爱宝”视为伴侣、甚至慰藉又前进了一大步。但现状和利维的梦想之间有一个重要的共同点:当机器人可以作为一个“聊胜于无”的替补后,它也许会和真的宠物、甚至真人一样好。如约兰达所说,如果你的宠物是机器人,那么它也许永远都可以是一副可爱小狗的模样;进一步说,如果你的爱人是机器人,那么你永远都会是它的世界的中心。机器人不再是“聊胜于无”或“比上不足、比下有余”,而会成为好于一切的选择。最初只是被设计用于给孩子们“玩耍”,如今却把我们带到了一个新的境地,提供给我们一种“冷安慰”(cold comfort)。我们想象着机器人的儿童或大人作为我们的伴侣,或者至少成为始终以我们为中心的伴侣。
哈利是一位42岁的建筑师。他非常享受“爱宝”的陪伴,教它耍各种花样。他知道“爱宝”并不了解“人”的概念。但是他说:“我并不觉得这很糟糕。机器宠物不知道我是人就好像……小狗算不上是人一样……不同层次的生物只能尽其所能而已。我很喜欢‘爱宝’把我看作它的师傅。”36岁的小学老师简也对“爱宝”进行类似的投入与付出。她说自己是从丈夫那里领养的“爱宝”,因为它太可爱了。“我给它起了名字,花时间和它在一起”。在我和她的访谈一开始的时候,她说自己收养“爱宝”纯粹是为了“消遣”,但后来她也承认:当自己孤单的时候,也会想到找“爱宝”。在一天的劳碌之后,简会想要找“爱宝”陪伴。她会和“爱宝”说话。“花时间和‘爱宝’在一起”意味着和它分享一天的经历,“比如中午在学校时我和谁一起吃的午饭,哪个学生给我找了麻烦”。她说自己的丈夫对这样的话题不感兴趣。因此与其强迫自己的丈夫听自己讲这些故事让他厌烦,还不如找“爱宝”聊聊更舒服。在机器人的陪伴下,孤独的简和哈利,让她们敢于表达自己的情感,这样会有危害吗?
在孩子与机器人相处的情况中,我担心他们会觉得与机器人相处要比与真人相处更亲密。然后,我们会听到青少年们谈论自己“惧怕对话”,并且解释为什么“发短信要比说话更好”。一些人会说“有时候,但不是现在”,学习如何对话是一件不错的事情。而在机器人的陪伴下,这个“有时候”也许不会到来。但是,倘若成年人也说自己更喜欢机器人是有原因的呢?
64岁的韦斯利就给我们提供了一个这样的案例。他发现自我中心主义已经成为自己社交的一大障碍。他想象着机器人帮手能够成为他满足自我中心心理、而又不会伤害他人的一种办法。他离过三次婚,如今希望机器人能够“理解我的心理,知道我为何沮丧,如何解决这个问题。希望机器人能够了解我的心理循环,永远不要责备我,学会如何帮我解决这些问题,”韦斯利说,“我期待机器人能够满足我对于妻子的需要,但我想也许机器人能够给我更多。对于妻子而言,我还需要考虑她的感受,而这正是我遇到的麻烦。如果有人爱我,他们会关心我的情绪起落。这对我来说压力太大了。”
韦斯利知道自己很难相处。有一次,一位精神科医生说他的“心理循环”大大超出常规。当然,他的前妻们也指责他“太过情绪化”。他知道对于女人来说自己是“压力”,同时他本身也感受到巨大的压力,因为他没能保护自己的女人免受“情绪起伏”的伤害。他喜欢机器人的原因在于,自己可以自然地表现自我——机器人不会被他情绪的黑暗面所伤害。韦斯利甚至考虑过“一夫二妻”的可能——一个真的,一个假的。“我想也许我需要一个机器人作为完美的伴侣,它没有太多的要求;同时还有一个真正的女人。机器人妻子可以减轻真人妻子的许多压力。她就不必情绪化到如此的程度,甚至是不切实际的程度。我可以待在让自己舒服的心理区域中。”
韦斯利最初的梦想还在发展当中。我之前曾经简单地提及,关于2010年1月上市的、被称为“史上第一款性爱机器人”的Roxxxy在网络上引发的讨论。Roxxxy没有行动能力,但是有电子加热的皮肤和会脉动的体内器官,而且它可以进行对话。这款机器人的发明者道格拉斯·海恩兹(Douglas Hines),这么描述他的设计目的:“性爱只是一时的事情,然后你会想和你的伴侣聊聊天。”因此,比如当Roxxxy感到自己的手正被握住的时候,它会说:“我喜欢和你握着手。”而当感到身体被爱抚的时候,它会说出更加亲密、诱惑的话来。使用者可以设定Roxxxy的性格特征,从狂野型到冷淡型。机器人可以通过连接互联网进行升级或更新,以扩大它的能力和词汇量。如今她已经可以谈论足球了。
海恩兹说自己进入机器人行业的一个原因,是自己的一个朋友在“9·11”袭击中丧生于双子塔。海恩兹想要保留这位朋友的个性,当他的孩子长大后还能够与他互动。类似的还有人工智能科学家、发明家雷蒙德·库兹韦尔(Raymond Kurzweil),他梦想着再造一个年轻时就不幸过世的父亲。海恩兹决定投身于人工个性的项目中。最初他想从为老年人设计家庭健康帮手机器人开始,但后来做了一个“仅仅是市场考虑”的决定:先设计性爱机器人。他的长期计划是将人工个性机器人带入主流市场。他依然梦想着重造自己那位失去的挚友。
Roxxxy的面世成功地吸引了大量媒体的关注,并且在网络上引发了激烈的反响。有人发帖说,一个男人如果需要这样的玩偶该是有多么的“悲剧”。另外一些人则认为,有个机器人伴侣总比永远做空窗的屌丝好很多。有人说:“对于某些男人来说,赢得女人的芳心就是不可能的事情……这不是挑不挑的问题……在现实世界中,他们只能选择第二选项。”
我还是要回到“危害”的问题上。对机器人产生依附感看似没有风险,但当人们习惯于无须付出的陪伴时,再与真人相处对他们来说,可能就是难以应对的问题。对人产生依附感同样是有风险的事情——它让我们可能饱受被拒绝的痛苦,但它同时也让我们能够以更加开放的心态去深刻地了解对方。机器人的陪伴似乎是一件让人愉快的交易,但它却把我们放逐到一个封闭的世界中。
机器人科学家坚称,人工智能可以设计得无法预知结果,因此和机器人的关系不会让人感到生硬和机械。他们说机器人有一天会凭借自身的条件让人大吃一惊,对人有帮助、有意义。然而在我的访谈中,关于机器人陪伴的幻想不总是充斥着惊喜。一次又一次,访谈对象向我表达了他们的忧虑。正如约兰达所说,机器人也许会成为危险世界中的安全天堂。