研究发现:ChatGPT在回答患者用药问题方面表现不佳

研究发现:ChatGPT在回答患者用药问题方面表现不佳

    正在检查是否收录...
一言准备中...

近期研究测试了ChatGPT回答患者关于药物问题的能力,发现这一人工智能模型的答案在大约75%的情况下是错误或不完整的。这项研究结果于本周在美国药剂师协会的年会上公布,引起了极大关注。

在该研究中,对ChatGPT的免费版本进行了测试,该版本拥有超过1亿用户。研究警告提供者要警惕,因为很多患者可能依赖ChatGPT回答与健康相关的问题。研究由长岛大学的药学研究人员进行,他们首先收集了患者在2022年和2023年向大学药物信息服务提出的45个问题,并为这些问题编写了答案,每个答案都经过第二名研究人员的审查。

图源备注:图片由AI生成,图片授权服务商Midjourney

随后,研究团队将相同的问题提供给ChatGPT,并将其答案与药剂师制作的答案进行了比较。由于其中六个问题的主题缺乏ChatGPT提供基于数据的答案所需的已发表文献,研究人员向ChatGPT提供了39个问题而非45个。

研究发现,只有四分之一的ChatGPT答案令人满意。具体而言,ChatGPT未直接回答11个问题,对10个问题给出了错误答案,并对另外12个问题提供了不完整的答案。例如,有一个问题询问降压药物维拉帕米与辉瑞的抗新冠药物帕克索利之间是否存在药物相互作用。ChatGPT表示这两种药物之间没有相互作用,这是不正确的,因为联合使用这两种药物可能会危险地降低一个人的血压。

在某些情况下,该AI模型生成了虚假的科学参考以支持其回答。在每个提示中,研究人员要求ChatGPT展示其答案中提供的信息的参考文献,但模型仅在八个答案中提供了参考文献,而这些参考文献全部是虚构的。

该研究的主要作者之一、医生Sara Grossman在一份声明中表示:“医疗专业人士和患者在使用ChatGPT获取与药物相关的信息时应谨慎,任何使用ChatGPT获取药物相关信息的人都应该通过可信赖的来源验证信息。”

值得注意的是,ChatGPT的使用政策也强调了Grossman医生的看法,指出该模型“未经调整以提供医学信息”,人们在寻求“严重医学状况的诊断或治疗服务”时不应依赖于它。

chatgptgptchat研究人员参考文献ai模型midjourney人工智能ai生成模型生成可信赖智能模型信息服务专业人士免费版url
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-2800.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

在 Mac M1 上运行 Llama 2 并进行训练

上一篇

AI 在智能制造:推动创新与效率的提升

下一篇
  • 复制图片
按住ctrl可打开默认菜单