1.3 为何与ChatGPT交流时有与人对话的感受
1.3.1 统计规律带来的“错觉”
ChatGPT之所以让我们对其生成的内容感到震惊,是因为底层模型学习的海量数据,是整个人类社会的产物。学习统计规律需要通过大量的数据和巧妙的模型设计来实现,为了能够达到这一目的,研究人员采集了尽可能多的数据。形象一点说,这些被ChatGPT用来进行训练的数据跨越了春夏秋冬、山川河流、历史事件,因此当我们跟ChatGPT进行交流的时候,我们收到的回复基本符合全人类的文字统计规律;当我们用AIGC进行绘画的时候,我们获得的图片基本符合人类所有艺术作品的统计规律;当我们用人工智能生成一段音乐的时候,我们听到的旋律也基本符合全世界音乐的统计规律。
具体来看,我们都知道语言本身就是一种“接龙游戏”。小孩子在学习语言的过程中,也是在听了老师和家长说了好多遍各种语句之后,才学会了怎么说话。我们经常听到老师对孩子说“熟读唐诗三百首,不会作诗也会吟”。可以看出,学生在吸纳了大量前人的文章之后,就会进行模仿,这个模仿的过程就是一种“文字接龙”。
对应到大语言模型上,其实道理是一样的。大语言模型在输出了一个单词之后,会把这个词加到原来的文本中,使之又作为输入进入语言模型,接着再问同样的问题“下一个单词是什么”,然后再输出、加入文本、输入……如此反复循环,直到生成一个“合理”的文本为止。
因此,我们在和生成式人工智能进行互动时,面对的不是有“认知”的机器,而是面对着全人类数据统计规律的近似载体。尤其是ChatGPT获得了全球海量的数据资源,知识量远远高出单个用户,因此我们在互动中感觉到在能力上被“碾压”也在情理之中。但ChatGPT其实不懂得语言背后的现实意义和逻辑,说它是“鹦鹉学舌”一点也不为过。很明显,鹦鹉不知道自己模仿的话是什么意思,我们也不会认为鹦鹉智力很高。
总的来看,ChatGPT的学习方式仅仅是掌握了语言中的统计规律,而不是语言规则,更不是逻辑推理,对世界本身的运作形式也没有跟人一样的直觉理解,距离智能还有很远的距离。
1.3.2 个人情感诉求得到满足
ChatGPT在交流中会表现出“同理心”,即用户在交流的过程中可以感受到ChatGPT能够“理解我”。ChatGPT是否具有这种能力,并不影响其提供的情绪价值。也就是说ChatGPT不一定具有情感能力,但是其能够在交互过程中让人类个体感受到被理解,进而催生出信赖、认同,这样的交流很有可能产生情感依赖,这在以下两个场景下显得尤为重要。
1.心理咨询
共情是诸多心理咨询的基础,相较于价格高昂的心理咨询师,ChatGPT可能会成为更好、更容易交流的倾听者。尤其是心理咨询师难以避免自身理念带来的偏见,ChatGPT有望从沟通者的信息中构建更多有针对性的交流,从而有助于真正帮助倾听者进行心理援助。
2.银发守护
随着老龄化的进一步加剧,陪伴机器人将有较大的发展空间,ChatGPT将提升陪伴机器人的陪伴质量,成为老年人的情感伙伴,从而帮助老人疏解孤独、追忆人生。
但需要指出的是,技术突破也会带来新的问题。沉浸在ChatGPT的定制化情感世界,将引发人们的精神依赖和逃避现实的倾向。
一方面,基于理想算法和对人类情感的研究,ChatGPT可以给用户带来感情慰藉。但这会让人们更难以适应现实生活,尤其是与人交流往往需要经历磨合与包容等过程,在团体内的合作会变得更加困难,导致新的情感真空和孤岛产生。
另一方面,如短视频、直播等当前占据用户大量时间的应用,情感陪护是否也会占据用户大量时间,提升用户对虚拟情感相关产品的依赖,从而对现实生活中的家庭、伦理、性别比例带来影响,这些还有待探讨。