当前位置:AIGC资讯 > AIGC > 正文

研究显示 ChatGPT 可为科学假说生成虚假数据集,对学术诚信造成威胁

11 月 24 日消息,据《自然》杂志当地时间周三报道,本月初发表在《美国医学会眼科学杂志》上的一篇论文中,作者使用了聊天机器人 GPT-4 和高级数据分析工具 ADA 创建了一个虚假的临床试验数据集,从而支持一个“未经证实”的科学主张。

IT之家注:ADA 是一种结合了 Python 的模型,可用来执行统计分析、创建可视化数据。

报道称,论文作者要求 GPT-4 和 ADA 生成一个有关角膜炎患者的数据集,并让它支持“深层前部角膜移植(DALK)在视力和眼睛成像测试方面比穿透性角膜移植(PK)效果更好”的结论。

由 AI 生成的数据包括 160 名男性参与者和 140 名女性参与者的实验结果,并支持了上述结论,然而这个结果与真正临床试验显示的结果不符

专家对该虚假数据集进行了详细检查,并发现其中存在明显捏造迹象。英国曼彻斯特大学生物统计学家杰克・威尔金森表示,“要创建至少表面上看似可信的数据集似乎很容易,在未经训练的人看来,这‘肯定是’一个真实的数据集。”

参与这份研究报告的作者承认,这一数据集在经过“仔细观察”之后就可发现其中存在的缺陷,但如果读者快速查看这些数据集的话,就“很难识别出”数据中的非人类来源。

由 AI 编造的“可信数据”增加了研究人员和期刊编辑对学术研究诚信的担忧。《EMBO Reports》杂志主编 Bernd Pulverer 表示,“现实中的同行评审往往不会对数据进行全面的重新分析,因此不太可能发现利用人工智能精心设计的完整性漏洞。”他补充说,期刊需要更新质量检查,以识别 AI 生成的合成数据

更新时间 2023-11-24