当前位置:AIGC资讯 > AIGC > 正文

UC伯克利研究人员推出Ghostbuster:用于检测 LLM 生成文本的最先进 AI 方法

LLM,如 ChatGPT,可以轻松地产生各种流利的文本,但是它们的准确性有多高呢?语言模型容易产生事实错误和幻觉,这让读者在决定是否相信一个信息来源时知道是否使用了这些工具来做新闻文章或其他信息文本的幽灵写作。这些模型的发展也引发了对文本的真实性和原创性的担忧,许多教育机构也限制了 ChatGPT 的使用,因为内容很容易生成。

目前存在许多用于检测 LLM 是否生成内容的框架,如 DetectGPT 和 GPTZero。然而,这些框架在原本未经评估的数据集上的性能有所下降。

近日,加利福尼亚大学伯克利分校的研究人员推出了一种名为Ghostbuster的先进人工智能方法,旨在检测大型语言模型(LLM)生成的文本。这一方法基于结构化搜索和线性分类,通过三个阶段的训练过程,名为概率计算、特征选择和分类器训练,取得了显著的性能提升。

Ghostbuster首先将每个文档转换为一系列向量,通过在一系列语言模型下计算每个令牌的概率来实现。接下来,它通过在向量和标量函数空间上运行结构化搜索过程,选择特征。这些特征通过定义一组操作,将这些概率结合起来,并运行前向特征选择。最后,Ghostbuster在最佳的基于概率的特征和一些额外手动选择的特征上训练一个简单的分类器。

Ghostbuster的分类器是根据通过结构化搜索选择的基于概率的特征和基于词长和最大令牌概率的七个额外特征的组合进行训练的。这些其他特征旨在包含观察到的关于人工智能生成文本的定性启发。

在性能方面,Ghostbuster在训练和测试数据集相似性方面表现稳健。在所有条件下,Ghostbuster的F1分数平均达到97.0,比DetectGPT高出39.6,比GPTZero高出7.5。

Ghostbuster 在除创意写作领域以外的所有领域中优于 RoBERTa 基线,而 RoBERTa 的越域表现要差得多。F1分数是一种常用的衡量分类模型性能的指标。它将精确度和召回率结合成一个单一的值,特别适用于处理不平衡的数据集。

Ghostbuster的出现填补了在非原始评估数据集上性能不佳的检测框架的空白,为更可靠地判断LLM生成文本的真实性提供了新的工具。这对于那些依赖于AI生成内容做出决策的用户来说,具有重要的意义。

论文网址:https://arxiv.org/abs/2305.15047

官网博客:https://bair.berkeley.edu/blog/2023/11/14/ghostbuster/

更新时间 2023-11-21