一篇由杰弗里·辛顿、尤瓦尔·赫拉利等联合撰写的论文呼吁全球政府采取具体监管措施,以规范AI的发展和应用。
这些专家包括三位图灵奖得主、一位诺贝尔奖得主以及众多AI学者,他们敦促各国政府采取紧急行动,提出了“三分之一投资规则”,要求主要从事AI系统开发的组织至少投入三分之一的资源来确保AI的安全和伦理使用,这一承诺与他们在能力开发上的投资水平相当。
图源备注:图片由AI生成,图片授权服务商Midjourney
杰弗里·辛顿,被广泛认为是最有影响力的AI科学家之一,表示:“有些公司计划在18个月内用比今天最先进技术多100倍的计算来训练模型。没有人知道它们将有多强大。而且对于它们将能够做什么基本上没有监管。”
在伦敦举行首届国际AI安全峰会之前,这些专家发布了一份简明的文件,概述了政府应如何应对与AI相关的风险。这份文件代表了迄今为止来自顶尖AI学者的最具切实性和全面性的一揽子要求。
这份文件强调了当前的AI模型具有巨大的影响力,需要民主监管以防范潜在风险,包括AI生成的虚假信息、社会不公、权力集中、网络战争和失控等问题。
文件的一位作者、计算机科学家尤瓦尔·赫拉利强调了这些措施的紧迫性,鉴于AI技术的快速发展。他表示:“是时候认真对待高级AI系统了。这些不是玩具。在了解如何使它们安全之前增强它们的能力是极其鲁莽的。公司会抱怨难以满足监管,声称‘监管扼杀创新’,这是荒谬的。对于AI公司来说,比三明治店更多的监管是必要的。”