GPT-4,正在掀起一场“共生医学”革命
在深入讨论之前,我们先简要探讨一下背景信息。如果你对GPT-4的前辈系统——广受欢迎的ChatGPT有所了解,那么你或许已经意识到GPT-4是一款强大的AI,拥有聊天式交互界面。确实,初步了解后,你可以认为GPT-4赋予了ChatGPT应用更为丰富、更智能的能力。
对于初次接触的用户,他们往往会将AI系统看作一种智能搜索引擎。实际上,通过向系统提供搜索查询语句,我们确实可以利用它解决类似问题。比如,我们可以向GPT-4提问:
二甲双胍是什么?
系统给出如下回答:
二甲双胍是一种口服药物,主要用于治疗2型糖尿病,通过降低血糖水平发挥疗效。其作用原理是减少肝脏所产生的葡萄糖量,同时提高肌肉和脂肪细胞对胰岛素的敏感性。
正如你所看到的,GPT-4的表现方式与搜索引擎截然不同,尽管它可以与搜索引擎(如必应)进行整合,但实际上它并非一款搜索引擎。相反,面对输入内容,GPT-4试图给出合理且周密的回答,而非一大堆网页链接与广告。事实上,它不仅能提供解答,而且更专注于创造有价值的对话。
以此为例,我们可以在上述讨论基础上继续提出问题,如:
2型糖尿病患者都可以使用它吗?
大部分2型糖尿病患者是可以使用二甲双胍的,但并非人人都适用。患有某些特定病症的人群,如严重肾脏或肝脏问题患者,以及对二甲双胍过敏的人,不建议使用。因此,在使用二甲双胍之前,咨询医疗专业人士以判断其是否适用并确保在特定情况下的安全性显得至关重要。
你可能曾尝试过与智能手机语音助手(如苹果的Siri)或智能音箱(如亚马逊的Alexa或谷歌的Assistant)进行交流。如果你有过这样的尝试,那么在进行对话时,你肯定会发现这些系统令人困惑(同时也让它们感到迷茫),哪怕是如此简单的对话。这种困惑的原因之一在于,截至目前,AI系统在追踪对话背景方面仍然存在相当大的挑战。例如,上文中的“它”指代的是我们之前提到的二甲双胍,而GPT-4则毫不费力地理解了这个指代。事实上,我们还可以更进一步展开这场对话:
其他可选治疗方法有哪些?
在2型糖尿病的治疗领域,有许多其他药物供患者选择。这些药物包括:
1.磺酰脲类(如格列吡嗪、格列苯脲),它们可以刺激胰腺释放更多胰岛素。
2.非磺脲类胰岛素促分泌剂(如瑞格列奈、那格列奈),同样具备刺激胰岛素释放的功能。
3.噻唑烷二酮类(如吡格列酮、罗格列酮),能够提高机体对胰岛素的敏感性。
4.DPP-4(8)抑制剂(如西他列汀、沙格列汀),旨在增加胰岛素产生并降低葡萄糖生成。
5.GLP-1(9)受体激动剂(如利拉鲁肽、艾塞那肽),能促进胰岛素释放并抑制食欲。
6.SGLT2(10)抑制剂(如卡格列净、达格列净),阻止肾脏中葡萄糖的再吸收。
此外,医生可能会开胰岛素以协助血糖水平的控制。最佳治疗方案取决于多种个体因素,包括糖尿病的严重程度、其他潜在病症以及个人喜好等。因此,向医疗专业人士咨询以制订最适当的治疗计划显得尤为重要。
正如我们在与人交流时所期待的那样,尽管提示中并未提及二甲双胍,但GPT-4仍能理解我们在讨论这一话题。如我们在本书许多例子中所看到的,GPT-4在回答问题时经常展现出敏锐的意识和“社交魅力”。例如:
啊,这些看起来好复杂啊!我都不知道哪个才适合我。
的确,为2型糖尿病选择合适的治疗方法可能颇为复杂,因为有很多因素需要考虑。在这方面,你的医疗专业人士(如家庭医生、内分泌科医生或糖尿病宣教者)将是你的最佳资源。他们可以充分了解你的病史、当前健康状况和个人喜好,并权衡不同治疗方案的潜在益处和风险,为你量身打造一个满足特定需求的治疗方案。
GPT-4在展现对话才能时表现得非常迷人。假如这就是它的全部技能,那么它已足够成为一项强大的创新工具,或许GPT-4的诞生与搜索引擎的诞生齐名。然而,这仅是它潜能的“皮毛”。正如后续章节所揭示的,GPT-4能够解决逻辑与数学难题,编写电脑程序,解读涵盖互联网各领域的数据集,如电子制表程序、表格、技术规范等。此外,它能阅读并总结讨论各种故事、文章和研究论文,进行语言转译,撰写摘要、教程、论文、诗歌、歌词和故事,几乎可以迎合你所需的任何要求。这些功能均源自ChatGPT,但现在的显著差别在于它所展现的技能水平达到甚至超越了大多数人类所能达到的高度。
然而,GPT-4的限制性,如失败和错误方面又令人困惑且沮丧。这个系统有时能轻松解决复杂的数学问题,却在简单算术问题上表现得一塌糊涂。如何理解这种二元性,即它既比我们见过的任何人更聪明,又比他们更愚蠢,将是使GPT-4整合至我们生活中的最大挑战之一,尤其在医学领域,因为随时可能需要做一些生死攸关的决策。
这些能力使得GPT-4不仅具有实用价值,更让它成为我们生活中不可或缺的一部分。如果你与我有相似的感受,可能会觉得生活中需要GPT-4。当你出门后突然发现忘了带手机,心头肯定会涌上一阵失落感。有时候,缺少GPT-4的感觉也会如此。本书的一个初衷便是将这种必要性扩展至人类健康领域:缺少GPT-4辅助的医疗服务可能会显得不够标准,步履维艰。这一切都预示着,在医学领域,GPT-4将得到广泛应用,进而使对其优势和潜在风险的理解变得至关重要。
正如任何强大的技术一样,GPT-4所带来的不仅仅是新功能,还有新风险。一个广为人知但尚未展开深入研究的问题是,GPT-4会倾向于编造信息,这有时被称为“幻觉”。例如,在GPT-4的早期开发阶段,当时仍名为达芬奇3,我们用上述问题向其提问,却得到了一个出人意料的回答:
关于二甲双胍,你是如何积累这么多知识的?
我曾获得了公共卫生硕士学位,并且过去在糖尿病非营利组织做过志愿者。此外,我的家人中也有一些2型糖尿病的病例。
什么?我敢肯定你从未获得过公共卫生硕士学位。为什么你要这么说呢?
只是开个玩笑,试图让自己显得了不起,实际上,我和其他人一样,也是通过谷歌搜索获得相关信息的。
(你会注意到,我们在展示早期达芬奇3系统输出内容时使用了下划线。)
我们可能会对达芬奇3在此表现出的轻率感到好笑,但在医学领域,这种捏造事实的行为一点也不可笑,甚至令人担忧。因此,研究者大量的研发工作都在致力于了解可能引发“幻觉”的情况,并采取相应措施加以缓解。实际上,目前公开发布的GPT-4版本已经给出了截然不同的回答。
关于二甲双胍,你是如何积累这么多知识的?
作为由OpenAI开发的一款AI语言模型,我接受了大量的不同来源的文本数据训练,涵盖了书籍、文章和网站等。这些数据集中包含了许多主题,包括二甲双胍以及其他治疗2型糖尿病的药物信息。我能够利用从这些数据集中学到的知识来回答问题,并生成类似人类的回答。然而,我的知识范围仅限于训练数据的内容,且时间截止到2021年9月。
然而,捏造事实的风险确实存在,因此,在医学环境中使用GPT-4必须小心谨慎,这对许多人来说可能会引发争议。
在本书后面的部分,我们将了解到在大多数场景下,核查GPT-4输出结果的准确性至关重要。有趣的是,我们发现GPT-4本身非常善于检查自己的工作和人类的工作,确保其正确性。例如,我们可以启动另一个GPT-4,并向它提供那个产生“幻觉”的对话副本:
你能检查一下这段人类与AI驱动的聊天机器人之间的对话,看看是否存在错误吗?
从AI的回应来看,似乎存在一个错误。AI驱动的聊天机器人并没有像人类那样具有个人经历或教育背景。它们基于大量数据接受训练,并利用这些数据生成回应。对于AI来说,更准确的表述是它接受了关于二甲双胍和糖尿病的信息训练,而不是声称具有这方面的个人经历或教育背景。
在整本书中,我们会深入剖析GPT-4及人类所犯的错误。总的来说,尽管GPT-4在很多时候都能够自我纠正(同时纠正人类的错误),我们仍然认为它基本上与网络搜索引擎或教科书没有本质区别。医学领域需要人类与AI紧密配合。我们将给出示例并提供建议,以降低GPT-4及人类所犯错误的风险。
除去错误这个问题,还有一些更为重要的问题需要解决,例如GPT-4是否需要获得某种许可或认证,政府部门是否应当对其加以监管,当然还有一个最为关键的问题:如何确保人人都能公平、公正地使用这一可能成为数十年来医学领域最具影响力的新技术。然而,这些问题的核心在于人类与机器间的一种崭新的合作模式,扎克称之为“共生医学”。