当前位置:AIGC资讯 > AIGC > 正文

科学家称AI存在5%的概率导致人类灭绝

在最新一项对人工智能研究者的调查中,科学家们普遍认为,超级人工智能的可能发展存在导致人类灭绝的非微不足道的风险,然而在这一问题上存在广泛的分歧和不确定性。

这一发现来自对2700名近期在六个顶级AI会议上发表论文的研究者进行的调查,这是迄今为止最大规模的AI研究者调查。调查要求参与者分享他们对未来AI技术里程碑可能的时间表的看法,以及这些成就可能带来的社会后果,近58%的研究者表示,他们认为有5%的概率导致人类灭绝或其他极端糟糕的AI相关结果。

图源备注:图片由AI生成,图片授权服务商Midjourney

加利福尼亚州机器智能研究所的Katja Grace是该论文的作者之一,她表示:“这是一个重要的信号,大多数AI研究者并不觉得先进的AI毁灭人类的可能性非常荒谬。我认为这种对非微小风险的普遍认知比确切的风险百分比更有说服力。”

然而,俄亥俄州凯斯西储大学的Émile Torres表示,目前无需过于担忧。他指出,这种AI专家调查在预测未来AI发展方面“没有良好的记录”,并引用2012年的一项研究,显示从长远来看,AI专家的预测并不比非专家公众的观点更准确。该调查的作者还指出,AI研究者并不是未来AI轨迹的专业预测专家。

与2022年同一调查的答案相比,许多AI研究者预测,AI将比以前预计的时间更早地达到某些里程碑。这与ChatGPT在2022年11月首次亮相以及硅谷迅速推出基于大型语言模型的类似AI聊天机器人服务的情况相吻合。

调查显示,研究者预测在未来十年内,AI系统有50%或更高的几率成功完成39项示例任务中的大多数,包括编写与泰勒·斯威夫特(Taylor Swift)的歌曲无法区分或从头开始编写完整的付款处理网站。其他任务,如在新房屋中安装电气布线或解决长期存在的数学难题,则预计需要更长时间。

研究者认为,AI可能在2047年前以50%的概率发展出可以在所有任务上超越人类的能力,而所有人类工作变得完全可自动化的可能性则在2116年前有50%的概率发生。这些估计比去年调查中给出的时间提前了13年和48年。

然而,Torres表示,对于AI发展的许多突破来说,可能会落空。他说:“许多这些突破是相当难以预测的。完全有可能AI领域再次经历一场‘寒冬’”,指的是在1970年代和80年代资金和企业对AI的兴趣减弱的情况。

此外,除了超级人工智能的风险外,还存在更为紧迫的担忧。70%或更多的AI研究者表示,涉及深度伪造、操纵公众舆论、制造武器、对人口实施威权控制和恶化经济不平等的由AI驱动的情境,要么是相当重要的,要么是极端重要的。Torres还强调了AI可能在气候变化等存在性问题上助长虚假信息或加剧民主治理恶化的危险。

他表示:“我们已经拥有了可以严重破坏[美国]民主的技术,现在就在这里。”Torres表示,“我们将看到在2024年选举中会发生什么。”

更新时间 2024-01-04