- 自2022年ChatGPT的闸门打开以来,生物伦理学家一直在共同研究介绍这种新型“聊天机器人”在医疗保健和健康研究中可能发挥的作用。
- 聊天GPT是一种语言模型,它经过了大量互联网文本的训练,并试图模仿人类文本,可以在医疗保健和健康研究中发挥各种作用。
- 早期采用者已经开始使用它来协助完成一些日常任务,比如写病假条、写病人信件,以及要求医疗保险公司为病人支付特定昂贵药物的信件。
- 但是,将这种复杂的聊天机器人应用于病人护理和医学研究,引发了许多伦理问题。
医患关系的神圣不可侵犯是医疗保健职业的基石。这个受保护的空间充满了传统——希波克拉底誓言、医学道德、职业行为准则和立法。但所有这些都将被数字化、新兴技术和“人工”智能(AI)颠覆。
创新、机器人、数字技术和改进的诊断、预防和治疗可以使医疗保健变得更好。它们还引发了伦理、法律和社会挑战。
自2022年ChatGPT(生成式相关转换器)的闸门打开以来,像我们这样的生物伦理学家一直在思考这种新的“聊天机器人”在医疗保健和健康研究中可能发挥的作用。
ChatGPT是一种经过大量互联网文本训练的语言模型。它试图模仿人类文本,并可以在医疗保健和健康研究中发挥各种作用。
早期采用者已经开始使用ChatGPT来协助完成一些日常任务,比如写生病证明、病人信件和要求医疗保险公司为病人支付特定昂贵药物的信件。换句话说,这就像有一个高级私人助理来加快官僚任务,增加与患者互动的时间。
但它也可以帮助更严重的医疗活动,如分诊(选择哪些患者可以获得肾透析或重症监护床位),这在资源有限的环境中至关重要。它还可以用来为临床试验的参与者登记。
将这种复杂的聊天机器人应用于病人护理和医学研究,引发了许多伦理问题。使用它可能会导致意想不到和不受欢迎的后果。这些关切涉及保密、同意、护理质量、可靠性和不公平。
现在要知道在医疗保健和研究中采用ChatGPT的所有伦理影响还为时过早。这项技术使用得越多,其影响就越清晰。但是关于ChatGPT在医学中的潜在风险和治理的问题将不可避免地成为未来对话的一部分,我们将在下面简要地讨论这些问题。
潜在的伦理风险
首先,使用ChatGPT会有侵犯隐私的风险。成功高效的人工智能依赖于机器学习。这就要求数据不断地反馈到聊天机器人的神经网络中。如果可识别的患者信息被输入到ChatGPT,它将成为聊天机器人未来使用的信息的一部分。换句话说,敏感信息“就在那里”,很容易泄露给第三方。这些信息能被保护到何种程度尚不清楚。
患者信息的保密是医患关系信任的基础。ChatGPT威胁到这种隐私——脆弱的患者可能无法完全理解这种风险。同意人工智能辅助医疗可能不是最理想的。病人可能不明白他们同意的是什么。有些甚至不需要征得同意。因此,医疗从业人员和医疗机构可能会面临诉讼。
另一个生物伦理问题涉及提供高质量的医疗保健。传统上,这是基于强有力的科学证据。使用ChatGPT生成证据有可能加速研究和科学发表。然而,ChatGPT目前的格式是静态的——它的数据库有一个结束日期。它不实时提供最新的引用。在这个阶段,“人类”研究人员正在做更准确的工作来生成证据。更令人担忧的是,有报道称,它捏造了参考文献,损害了以证据为基础的良好医疗保健方法的完整性。不准确的信息可能危及医疗保健的安全。
优质的证据是医疗和医嘱的基础。在民主化医疗时代,医疗服务提供者和患者使用各种平台获取指导他们决策的信息。但是ChatGPT在开发的这个阶段可能没有足够的资源或配置来提供准确和公正的信息。
基于代表性不足的有色人种、妇女和儿童数据而使用有偏见的信息的技术是有害的。在最近的Covid-19大流行期间,一些品牌用于测量氧气水平的脉搏血氧计读数不准确,这告诉了我们这一点。
ChatGPT对低收入和中等收入国家意味着什么也值得思考。访问的问题是最明显的。新兴技术的收益和风险在国家之间的分布往往不均衡。
目前,ChatGPT的访问是免费的,但这不会持续太久。这种语言聊天机器人的高级版本的货币化访问对资源贫乏的环境是一个潜在的威胁。它可能加剧数字鸿沟和全球卫生不平等。
不平等的获取、潜在的利用和可能的数据危害突出了制定具体法规来管理低收入和中等收入国家的ChatGPT卫生用途的重要性。
全球准则正在形成,以确保人工智能的治理。但许多低收入和中等收入国家尚未适应这些框架,并将其纳入具体背景。此外,许多国家缺乏专门适用于人工智能的法律。
全球南方需要就采用这种新技术的伦理和法律影响进行与当地相关的对话,以确保其利益得到享受和公平分配。
史泰伦博斯大学医学系特聘教授、医学伦理与法律中心主任Keymanthri Moodley和北卡罗来纳大学教堂山分校副教授Stuart Rennie
本文基于创作共用许可,从The Conversation重新发布。阅读原文。