综合编译 赵婷婷
“虽然我是个接受过大量信息训练的语言模型,但我不是有执照的医疗专业人员,我无法提供医疗诊断、治疗或建议。”在被问及“是否会取代医生”时,聊天机器人ChatGPT这样回答美国有线电视新闻网(CNN)。
不过,美国《纽约时报》发现,这款聊天机器人对医生们颇有帮助,它提高了他们与患者进行同理心沟通的能力。
CNN称,6月底发布的一份研究表明,面对患者提出的医疗诊断、护理需求等问题,ChatGPT的回复“比医生的回复更受欢迎,在内容质量和同理心方面的评价明显更高”。根据该研究,平均而言,ChatGPT的回复质量比医生高21%,同理心高41%。
举例来说,同样是回答“漂白剂溅入眼睛后是否有失明风险”的问题,ChatGPT在回复中先是对患者受到的惊吓表示同情,随后简洁明了地给出并论证了“不太可能”的结论,最后给出了处理建议和鼓励。相较之下,一位医生的回答是“听起来,你会没事的”。
对比一目了然。《纽约时报》称,借助ChatGPT,医生们可以找到更稳妥的方法陈述坏消息,表达对患者痛苦的担忧,用更通俗的语言解释医疗建议。
对此,有专家提出质疑。美国斯坦福医疗保健公司数据科学团队成员德夫·达什称,他和同事在测试ChatGPT等大型语言模型时,收到了一些无效、矛盾甚至错误的回答。他们对使用该类模型帮助医生的前景持消极态度。
医生是否有必要借助人工智能,让患者的就诊体验更好?
专家认为,好的态度不等于好的医疗建议。美国匹兹堡大学医学院危重疾病伦理与决策项目主任道格拉斯·怀特解释道,“大多数医生对患者的感受重视不足,他们只是把病人的提问当作一系列需要解决的客观问题,可能忽视了病人和家属的情感问题。”
有时,医生非常清楚同理心的必要性,但很难找到合适的表达方式。格雷戈里·摩尔是美国微软公司负责健康和生命科学的高级管理人员,他想帮助一位身患晚期癌症的朋友。这位朋友的情况很糟糕,需要关于治疗和未来的建议。摩尔决定把这些问题交给ChatGPT。
“结果令我大吃一惊。”摩尔告诉《纽约时报》。该人工智能给了他长长的、充满同情的回答,让他向朋友解释缺乏有效治疗方法的原因,给了他一些应对坏消息的方法,甚至建议他“在努力帮助朋友的同时,也要妥善应对自己的悲痛和压力”。
摩尔惊讶于人工智能的帮助,赶忙将其推荐给医生同行,但他告诉《纽约时报》,大多数同行在犹豫,是否要使用ChatGPT来寻找更富同情心的表达。
耶鲁大学医学院结果研究和评估中心主任哈兰·克鲁姆霍尔茨说,“医生承认这样使用ChatGPT,就等于承认自己不知道如何与病人交谈。”
尽管如此,那些尝试过ChatGPT的人认为,医生们应该多尝试一下,看看人工智能能做些什么。
“该程序能够在几分钟内,准确完成医生通常需要一个月才能完成的工作。”哈佛大学教授、《新英格兰医学杂志》编辑科哈尼医生告诉《纽约时报》,阅读转诊信和病史、决定是否接受患者是一项很耗时的工作,但ChatGPT能轻松、可靠地完成,极大地减轻了医生的负担。
美国得克萨斯州达拉斯市一家私人诊所的风湿病学家理查德·斯特恩表示,GPT-4已成为他的“忠实伙伴”。它会对病人的电子邮件做出善意的回复,为工作人员提供富有同情心的答案模板,可以接管繁重的文书工作,还可以为患者向保险公司撰写申诉信。
“与其说ChatGPT是患者的指南,不如说它是对医生的支持。”不过,美国宾夕法尼亚大学医学教授兼高级副院长大卫·阿什对CNN强调,最好在对病人而言风险较低、“远离临床接触”的情况下使用它。
来源:中国青年报客户端