研究发现:GPT-3经常出错,重复有害的错误信息

研究发现:GPT-3经常出错,重复有害的错误信息

    正在检查是否收录...

一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。

图源备注:图片由AI生成,图片授权服务商Midjourney

最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明(事实、阴谋、争议、误解、刻板印象和虚构)的理解。他们发现GPT-3经常出错,在一次回答过程中自相矛盾,并重复有害的错误信息。

计算机科学David R. Cheriton学院的教授丹·布朗表示:“大多数其他大型语言模型都是基于OpenAI模型的输出进行训练的。所有这些模型都反复出现了我们在研究中发现的这些问题。”

研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。

gptchatgpt语言模型openai大型语言模型chat研究人员ai模型midjourneyai生成gpt-3url
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-4201.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

GenAI的变革性力量正在将知识带到工作场所

上一篇

人工智能会改变旧建筑的能源效率吗?

下一篇
  • 复制图片
按住ctrl可打开默认菜单