七、ChatGPT的局限性
从自然语言生成领域的问答来看,尽管ChatGPT表现出超强的优势和能力,但是其技术仍然存在局限性。这些局限性主要表现在:
1.在没有经过大量语料训练的领域,当用户寻求答案时,ChatGPT极有可能给出错误或误导性的答案,甚至会因为缺乏“人类常识”和引申能力,导致一本正经地“胡说八道”。由此,ChatGPT在很多未经训练的领域可以创造答案,编撰小说也是它的长项,比如它对苏轼词《定风波》的演绎,如图1-4所示。
图1-4 ChatGPT对苏轼词《定风波》“胡说八道”的演绎
2.对于自然科学、金融或医学等专业领域的问题,如果没有进行足够的语料训练,ChatGPT无法生成准确的回答。由此可知,它无法处理非常专业或复杂的语言结构。
3.由于ChatGPT是一个大语言模型,目前还并不具备网络搜索功能,因此它只能基于2021年所拥有的数据集进行回答。例如,它不会像苹果语音助手Siri那样帮你搜索信息,回答明天是否会下雨,也不知道北京冬奥会、俄乌冲突、安倍遇刺等2022年发生的事件。当然,如果ChatGPT能自己上网寻找学习语料和搜索知识,估计又将是个智能的飞跃与里程碑。
4.ChatGPT还无法把在线的新知识纳入进去。一方面,如果对于新知识采取在线训练的模式,看上去成本低且方案可行,但是很容易由于新数据的引入而导致对原有知识灾难性的遗忘;另一方面,如果一旦出现一些新知识就去重新预训练GPT模型,无论是时间成本还是经济成本,都是普通训练者难以接受的,根本不现实,这也是它与人的重大差别之一。
5.目前,人们还没有能力对ChatGPT内在的算法逻辑进行分解与认知,即它仍然是个黑箱模型,因此并不能保证ChatGPT不会产生偏见、误导乃至攻击、伤害用户的表述。
虽然ChatGPT存在如上局限性,但是瑕不掩瑜,这些都不能掩盖ChatGPT巨大的优势和出类拔萃的“通用能力”。