逻辑推理大翻车!GPT-4、Gemini被曝重大缺陷,LLM严重降智

逻辑推理大翻车!GPT-4、Gemini被曝重大缺陷,LLM严重降智

    正在检查是否收录...

近期,谷歌DeepMind和斯坦福的研究人员发现大型语言模型在处理逻辑推理任务时,前提信息的呈现顺序对其表现具有决定性影响。

在逻辑推理和数学问题中,前提按照逻辑自然顺序排列时,模型表现更佳。对于大型语言模型,改变前提叙述顺序会导致性能大幅下降,尤其是在添加分散注意力规则的情况下。

论文地址:https://arxiv.org/pdf/2402.08939.pdf

研究人员发现,通过打乱GSM8K测试集中问题陈述的顺序构建R-GSM测试集,几乎所有主流LLM在新测试集上表现下降。尽管人类在逻辑推理时对前提顺序也有偏好,但LLM更容易受到顺序效应影响,这可能与自回归模型训练目标和数据偏差有关。

改变前提顺序可以使模型准确率下降超过30%,不同顺序对不同模型影响也不同,如GPT模型在反向排序下表现较好。研究人员还发现加入更多干扰规则和多种前提顺序会使问题更加复杂,需要进一步研究解决。在逻辑推理中,前提顺序对大型语言模型推理表现有重大影响,如何应对这一问题仍是一个挑战。

逻辑推理语言模型大型语言模型研究人员pdfllmgpt模型训练gpt模型注意力准确率模型推理arxiv
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-8635.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

ai写作论文会被发现吗

上一篇

高性能 LLM 推理框架的设计与实现

下一篇
  • 复制图片
按住ctrl可打开默认菜单