当前位置:AIGC资讯 > AIGC > 正文

研究发现:ChatGPT在回答患者用药问题方面表现不佳

近期研究测试了ChatGPT回答患者关于药物问题的能力,发现这一人工智能模型的答案在大约75%的情况下是错误或不完整的。这项研究结果于本周在美国药剂师协会的年会上公布,引起了极大关注。

在该研究中,对ChatGPT的免费版本进行了测试,该版本拥有超过1亿用户。研究警告提供者要警惕,因为很多患者可能依赖ChatGPT回答与健康相关的问题。研究由长岛大学的药学研究人员进行,他们首先收集了患者在2022年和2023年向大学药物信息服务提出的45个问题,并为这些问题编写了答案,每个答案都经过第二名研究人员的审查。

图源备注:图片由AI生成,图片授权服务商Midjourney

随后,研究团队将相同的问题提供给ChatGPT,并将其答案与药剂师制作的答案进行了比较。由于其中六个问题的主题缺乏ChatGPT提供基于数据的答案所需的已发表文献,研究人员向ChatGPT提供了39个问题而非45个。

研究发现,只有四分之一的ChatGPT答案令人满意。具体而言,ChatGPT未直接回答11个问题,对10个问题给出了错误答案,并对另外12个问题提供了不完整的答案。例如,有一个问题询问降压药物维拉帕米与辉瑞的抗新冠药物帕克索利之间是否存在药物相互作用。ChatGPT表示这两种药物之间没有相互作用,这是不正确的,因为联合使用这两种药物可能会危险地降低一个人的血压。

在某些情况下,该AI模型生成了虚假的科学参考以支持其回答。在每个提示中,研究人员要求ChatGPT展示其答案中提供的信息的参考文献,但模型仅在八个答案中提供了参考文献,而这些参考文献全部是虚构的。

该研究的主要作者之一、医生Sara Grossman在一份声明中表示:“医疗专业人士和患者在使用ChatGPT获取与药物相关的信息时应谨慎,任何使用ChatGPT获取药物相关信息的人都应该通过可信赖的来源验证信息。”

值得注意的是,ChatGPT的使用政策也强调了Grossman医生的看法,指出该模型“未经调整以提供医学信息”,人们在寻求“严重医学状况的诊断或治疗服务”时不应依赖于它。

更新时间 2023-12-08