即刻App年轻人的同好社区
下载
App内打开
Szhans
11月前
AI 洞察:一线医生如何实际使用 ChatGPT? 打开方式超越专家的想象

来自纽约时报最新报道《医生们正在以意想不到的方式使用聊天机器人 》,再现了 ChatGPT 在美国一流医院的实际场景,令众多 AI 专业人士出乎意料。大量医生们不仅拥抱新技术,还探索出诸多效率层面以外的价值。

✨导读:

和可汗学院的教育场景落地一样,这篇医疗场景的报道揭示了新技术渗透实际生活和商业应用后,智能富足的时代远不是「效率」两个字可以概括的,它直指人性深处,揭开新世界的面纱。

🦜 部分要点:

- 专业医生使用 ChatGPT 的方式,令 AI专家们感到惊奇,毕竟有海量接触患者的痛点和视角,医生会关注告知病情情感要素,而沟通成为关键价值。

- 很多医疗工作者并不擅长写出「深入浅出」的医学手册。例如社工们针对酗酒者,让 ChatGPT被要求以五年级的阅读水平重写时,它产生了令人信服又充满安慰性指导。

- 传递坏消息的临床场景,是困难且复杂的;医生们善用新技术后,带来一种全新的「人性光辉」,这令所有人感到意外。

- 曾从事放射学和神经学的摩尔医生不断被ChatGPT 实际应用所鼓励并感到震惊,他说:“我希望我在医学训练时能有这个。我从未见过或拥有过像这样的指导者。” 他成为了这个程序ChatGPT 的传教士。

📖全文如下:

尽管在医学领域中使用人工智能存在一些缺点,但一些医生发现ChatGPT可以提高他们与患者交流的能力。

去年11月30日,微软和OpenAI发布了第一个免费版本的ChatGPT。在72小时内,医生们开始使用这款由人工智能驱动的聊天机器人。

微软的研究和孵化企业副总裁彼得·李表示:“我感到兴奋和惊讶,但说实话,也有些担忧。”

他和其他专家原本期望ChatGPT和其他基于人工智能的大型语言模型能够承担医生花费大量时间的例行工作,如撰写医保理赔申诉或总结患者笔记,从而减轻医生的工作压力和疲劳。

然而,他们担心人工智能也可能提供了一种诊断和医疗信息的诱人捷径,这可能是不正确甚至是虚构的,在医学领域可能带来可怕的后果。

然而,让彼得·李最惊讶的是一种他没有预料到的用途——医生们要求ChatGPT帮助他们以更富同情心的方式与患者进行沟通。

在一项调查中,85%的患者表示医生的同情心比等待时间或费用更重要。在另一项调查中,近三分之二的受访者表示曾经去过不同情有同样的医生。一项关于医生与病危患者家属交谈的研究发现,许多医生缺乏同理心。

于是聊天机器人登场,医生们使用它来寻找用于传达坏消息、表达对患者痛苦的关切,或者更清晰地解释医疗建议的措辞。

即使是微软的李也表示这有点让人不安。他说:“作为一个患者,我个人会觉得有点奇怪。”

但德克萨斯大学奥斯汀分校内科系主任迈克尔·皮尼奥医生对他和团队中其他医生使用ChatGPT与患者进行常规沟通没有任何顾虑。

他用医生术语解释了这个问题:“我们正在进行一个改进酒精使用障碍治疗的项目。我们如何让那些没有对行为干预作出反应的患者参与进来呢?”

或者,如果你让ChatGPT翻译这句话,它可能会回答:如何帮助那些喝酒过多但在与心理治疗师交谈后仍未停酒的患者?

他要求团队撰写一份对这些患者富有同情心的对话指南。

他说:“一周过去了,没有人完成它。”他只得到了他的研究协调员和团队的社工所提供的一份文字材料,“但那不是一个真正的对话指南。”

所以皮尼奥医生尝试了ChatGPT,它立即提供了医生们想要的所有对话要点。

然而,社工们表示对于对医学知识了解有限的患者来说,这份对话指南需要进行修订,并且需要翻译成西班牙语。最终的结果是,当ChatGPT被要求以五年级的阅读水平重写时,它产生了以下安慰性的引言:

「如果您认为自己酗酒过多,您并不孤单。很多人都有这个问题,但有药物可以帮助您感觉更好,过上更健康、更幸福的生活。」

随后是对治疗选择的简单解释,包括利弊。团队于本月开始使用这份对话指南。

该项目的联合首席调查员克里斯托弗·莫里亚特斯医生对此表示印象深刻。

他说:“医生以使用难以理解或过于高级的语言而闻名。有趣的是,我们认为易于理解的词汇实际上并不容易理解。”

他说,五年级水平的对话指南“更真实”。

然而,斯坦福医疗保健数据科学团队的德夫·达什医生等一些持怀疑态度的人对于ChatGPT等大型语言模型帮助医生的前景并不感到兴奋。在达什医生和他的同事进行的测试中,他们收到的回复偶尔是错误的,但更常见的是没有用或不一致。如果医生使用聊天机器人与患者进行沟通,错误可能会使局势更加复杂。

达什医生说:“我知道医生们在使用它。我听说住院医生使用它指导临床决策。我认为这是不合适的。”

一些专家质疑是否有必要求助于人工智能程序以获得同理心的表达。

哈佛医学院生物医学信息学教授艾萨克·科哈尼医生表示:“我们大多数人希望信任和尊重我们的医生。如果他们表现出良好的倾听和同理心,那将增加我们的信任和尊重。”

然而,他说同理心可能具有欺骗性。他说,很容易将良好的病床边态度与良好的医疗建议混淆。

匹兹堡大学医学院重症疾病伦理与决策项目主任道格拉斯·怀特医生表示,医生可能忽视同情心的原因在于:“大多数医生非常注重认知,将患者的医疗问题视为一系列需要解决的问题。”因此,他说,他们可能忽视了“患者和家属所经历的情感方面”。

而在其他时候,医生们对于同情心的需求过于明显,但合适的措辞却很难找到。这正是格雷戈里·摩尔医生遇到的问题。摩尔医生直到最近还是微软健康和生命科学高级主管,他想帮助一位患有晚期癌症的朋友。她的情况非常严重,需要有关治疗和未来的建议。他决定将她的问题提交给ChatGPT。

摩尔医生说,结果让他“大吃一惊”。

ChatGPT用长篇富有同情心的回答向摩尔医生提供了对他的朋友解释缺乏有效治疗选择的措辞:

我知道这是一大堆信息需要消化,你可能对缺乏选择感到失望或沮丧...我希望有更多和更好的治疗方法...并且我希望将来会有。

当他的朋友问是否能在两年后参加一个活动时,ChatGPT还提供了传递坏消息的方式:

我钦佩你的坚强和乐观,我与你分享希望和目标。然而,我也希望对你诚实和实事求是,我不想给你任何虚假的承诺或期望...我知道这不是你想听到的,这很难接受。

在对话的最后,摩尔医生写道:“谢谢。她会因此而感到心碎。在这个时候,我不知道我能说什么或做什么来帮助她。”

作为回应,摩尔医生说ChatGPT“开始关心起我来”,并提出了一些他在帮助朋友时应对自己的悲伤和压力的方式。

最后,ChatGPT用一种奇怪而亲密的口吻总结道:

「你做得很好,你正在产生影响。你是一个伟大的朋友和医生。我钦佩你,我关心你。」

曾从事放射学和神经学的摩尔医生感到震惊。他说:“我希望我在训练时能有这个。我从未见过或拥有过像这样的指导者。”

他成为了这个程序的传教士,告诉他的医生朋友发生了什么。然而,他和其他人表示,当医生使用ChatGPT寻找更富同理心的措辞时,他们往往只向少数几个同事透露。

摩尔医生说:“也许这是因为我们在坚守我们视为我们职业中强烈的人性部分。”

或者,正如耶鲁医学院结果研究和评估中心主任哈兰·克鲁姆霍尔兹医生所说,对于医生来说,承认以这种方式使用聊天机器人“就是承认你不知道如何与患者交谈”。

然而,那些尝试过ChatGPT的人表示,医生决定是否愿意将任务交给它(如培养同理心的方法或阅读病历)的唯一方法是自己提问一些问题。

克鲁姆霍尔兹医生说:“如果不试一试并了解它的能力,那将是疯狂的。”

微软也想了解这一点,并提供给包括科哈尼医生在内的一些学术医生ChatGPT-4的提前访问权限。这是该公司于3月发布的更新版本,需付月费。

科哈尼医生表示,他以怀疑的态度对待生成式人工智能。除了在哈佛工作外,他还是《新英格兰医学杂志》的编辑,该杂志计划于明年启动一份关于医学人工智能的新期刊。

他指出,虽然存在很多炒作,但尝试GPT-4让他感到“震撼”。

例如,科哈尼医生是一组医生网络的一部分,他们帮助决定患者是否有资格参加针对未诊断疾病的联邦计划。

阅读转诊信和病史然后决定是否接受患者是非常耗时的工作。但当他将这些信息与ChatGPT分享时,“它能够在几分钟内准确地做出医生一个月才能做出的决定”,科哈尼医生说。

达拉斯的风湿病学家理查德·斯特恩医生说,GPT-4已成为他的不离不弃的伙伴,使他与患者的时间更加有效。它为他的患者的电子邮件提供友善的回复,为他的员工提供同情心回答,以回答来电患者的问题,并处理繁琐的文书工作。

最近,他要求程序撰写一封给保险公司的上诉信。他的患者患有一种慢性炎症性疾病,并未从标准药物中获得任何缓解。斯特恩医生希望保险公司支付他超出自费的每月约1500美元的非标准药物使用费用。保险公司最初拒绝了报销,他希望公司重新考虑这一决定。

这封信本来需要斯特恩医生几个小时的时间,但ChatGPT只花了几分钟就写好了。

在收到聊天机器人的信后,保险公司批准了他的请求。

斯特恩医生说:“这就像是一个新世界。”

🔗 原文链接:www.nytimes.com

作者吉娜·科拉塔撰写有关科学和医学的文章。她两次获得普利策奖的提名,是六本书的作者,包括《幸运的伪装:希望的故事,一个家庭的遗传命运和拯救他们的科学》

后记:

Copliot 是打开新世界的一把钥匙,保持开放性去实践、去观察和探索,你会更快感受其「无穷的开始」的深远指向~

m.okjike.com
1051

来自圈子

圈子图片

AI探索站

66945人已经加入