当前位置:AIGC资讯 > AIGC > 正文

研究发现:AI和人类生成的在线内容同样被认为可信

在当今互联网成为许多人获取信息的主要途径的时代,在线内容及其来源的可信度已经达到了一个关键的转折点。由于ChatGPT和Google Bard等生成人工智能(AI)应用的激增,这一担忧变得更为突出。

与依赖人类生成和策划的传统平台(如维基百科)不同,这些基于人工智能驱动的系统能够自主生成内容,尽管经常伴随着错误。一项由Mainz Applied Sciences大学和Johannes Gutenberg大学联合进行的最新研究专注于探讨用户如何在不同用户界面下感知人工生成和人类生成内容的可信度。超过600名英语使用者参与了该研究。

Mainz Applied Sciences大学信息系统教授Martin Huschens是该研究的作者之一,他强调说:“我们的研究揭示了一些非常令人惊讶的发现。研究表明,尽管存在用户界面的差异,参与研究的人们将人工智能生成的内容和人类生成的内容评为同等可信。”

他补充道:“尽管人工智能生成的内容仍然存在高风险的错误、误解和幻觉行为,参与者们却评价其具有更高的清晰度和吸引力,尽管在感知的信息权威性和可信度方面没有显著差异。”

该研究阐释了当前人工智能生成内容感知和使用状态以及相关风险。在信息轻松获取的数字时代,用户必须运用辨别力和批判性思维。在人工智能生成内容日益普及的情况下,用户必须保持对这些系统局限性和固有偏见的认识。

Johannes Gutenberg大学信息系统教授Franz Rothlauf补充说:“研究结果显示,在ChatGPT时代,我们已经无法区分人类语言和文本生成和机器语言和文本生成的差异。然而,由于人工智能并不‘知道’,而是依赖统计猜测,我们将需要未来对机器生成的知识进行强制性标注。否则,真实和虚构将变得模糊,人们无法分辨。”

这仍然是科学传播的任务,更是一项社会和政治挑战,需要唤起用户对人工智能生成内容负责任使用的意识。

论文网址:https://arxiv.org/abs/2309.02524

更新时间 2023-11-30