UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法

UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法

    正在检查是否收录...
一言准备中...

LLM,如 ChatGPT,可以轻松地产生各种流利的文本,但是它们的准确性有多高呢?语言模型容易产生事实错误和幻觉,这让读者在决定是否相信一个信息来源时知道是否使用了这些工具来做新闻文章或其他信息文本的幽灵写作。这些模型的发展也引发了对文本的真实性和原创性的担忧,许多教育机构也限制了 ChatGPT 的使用,因为内容很容易生成。

目前存在许多用于检测 LLM 是否生成内容的框架,如 DetectGPT 和 GPTZero。然而,这些框架在原本未经评估的数据集上的性能有所下降。

近日,加利福尼亚大学伯克利分校的研究人员推出了一种名为Ghostbuster的先进人工智能方法,旨在检测大型语言模型(LLM)生成的文本。这一方法基于结构化搜索和线性分类,通过三个阶段的训练过程,名为概率计算、特征选择和分类器训练,取得了显著的性能提升。

Ghostbuster首先将每个文档转换为一系列向量,通过在一系列语言模型下计算每个令牌的概率来实现。接下来,它通过在向量和标量函数空间上运行结构化搜索过程,选择特征。这些特征通过定义一组操作,将这些概率结合起来,并运行前向特征选择。最后,Ghostbuster在最佳的基于概率的特征和一些额外手动选择的特征上训练一个简单的分类器。

Ghostbuster的分类器是根据通过结构化搜索选择的基于概率的特征和基于词长和最大令牌概率的七个额外特征的组合进行训练的。这些其他特征旨在包含观察到的关于人工智能生成文本的定性启发。

在性能方面,Ghostbuster在训练和测试数据集相似性方面表现稳健。在所有条件下,Ghostbuster的F1分数平均达到97.0,比DetectGPT高出39.6,比GPTZero高出7.5。

Ghostbuster 在除创意写作领域以外的所有领域中优于 RoBERTa 基线,而 RoBERTa 的越域表现要差得多。F1分数是一种常用的衡量分类模型性能的指标。它将精确度和召回率结合成一个单一的值,特别适用于处理不平衡的数据集。

Ghostbuster的出现填补了在非原始评估数据集上性能不佳的检测框架的空白,为更可靠地判断LLM生成文本的真实性提供了新的工具。这对于那些依赖于AI生成内容做出决策的用户来说,具有重要的意义。

论文网址:https://arxiv.org/abs/2305.15047

官网博客:https://bair.berkeley.edu/blog/2023/11/14/ghostbuster/

gptllm数据集语言模型结构化chatgpt人工智能bert生成内容chat真实性ai生成内容准确性创意写作大型语言模型文档转换研究人员原创性测试数据模型性能ai生成智能生成性能提升urlarxiv
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-1180.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

Midjourney API 申请和接入小白教程

上一篇

九章云极DataCanvas公司与生态伙伴强强联手,构建人工智能强生态!

下一篇
  • 复制图片
按住ctrl可打开默认菜单