当前位置:AIGC资讯 > AIGC > 正文

LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药

近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。

比如图灵奖三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种观点。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的监管,否则可能引发「AI 灭绝人类」的风险。LeCun 与他们的观点并不相同,他认为 AI 强监管必将带来巨头垄断,结果是只有少数公司控制 AI 的研发。

为了表达自己的想法,很多人以签署联名信的方式来传达观点,就拿刚刚过去的几天来说,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施。

与此同时,近日一封名为《人工智能安全和开放的联合声明》的公开信正在社交媒体发酵。

公开信链接:https://open.mozilla.org/letter/

截至目前,深度学习三巨头之一的 LeCun、斯坦福大学计算机科学系教授吴恩达等 370 多人已经在这封公开信上签名。名单还在持续更新中。

LeCun 表示,「开放、透明和广泛的访问使软件平台更安全、更可靠。这封来自 Mozilla 基金会的公开信,我也签了名,它为开放的人工智能平台和系统提供了理由。」


以下为公开信内容:

我们正处于人工智能治理的关键时刻。为了减轻人工智能系统当前和未来的危害,我们需要拥抱开放、透明和广泛的访问。这需要成为全球优先事项。

的确,公开可用的模型存在风险和漏洞 —— 人工智能模型可能被恶意行为者滥用或被装备不足的开发人员部署。然而,我们一次又一次地看到,各种专有技术都是如此 —— 增加公众访问和审查使技术更安全,而不是更危险。对基础人工智能模型进行严格和专有的控制是保护我们免受大规模伤害的唯一途径,这种想法往好了说是天真,往坏了说就是危险。

此外,人类发展的历史告诉我们,迅速采取错误的监管可能会导致权力集中,从而损害竞争和创新。开放模型可以为公开辩论提供信息并改进策略制定。如果我们的目标是安全、保障和问责,那么开放和透明就是实现这一目标的重要因素。

我们正处于一场关于人工智能时代「开放」含义的动态讨论之中。这场重要的辩论不应该放慢脚步。相反,它应该加快速度,鼓励我们尝试、学习和开发新的方法,在人工智能安全竞赛中利用开放性。

我们需要为开源与开放构建一系列方法,这些方法可以作为以下方面的基石:

1. 通过独立研究、协作和知识共享,加速了解人工智能能力的风险和危害。

2. 通过帮助监管机构采用工具来监控大规模人工智能系统,加强公众监督和问责。

3. 降低新玩家的进入门槛,专注于创建负责任的人工智能。

作为这封公开信的签署人,我们是一个多元化的群体,包括科学家、策略制定者、工程师、活动家、企业家、教育工作者和记者等等。我们代表关于如何管理和发布开源人工智能的不同观点。然而,我们强烈同意一件事:开放、负责任和透明的方法对于确保我们在人工智能时代的安全至关重要。

在人工智能安全方面,开放是解药,而不是毒药。

签名者:

  • Arthur Mensch,法国初创公司 MistralAI 联合创始人兼首席执行官
  • 吴恩达,DeepLearning.AI 创始人,Landing AI 创始人兼首席执行官,斯坦福大学计算机科学系教授
  • Yann Lecun,图灵奖得主,Meta 首席 AI 科学家
  • Julien Chaumond,Hugging Face CTO
  • Brian Behlendorf,Apache 创始成员,OpenSSF 首席技术官
  • Eric Von Hippel,美国经济学家,MIT 斯隆管理学院教授
  • ……

目前,这封仅仅出现数天的公开信在持续发酵,在国外 AI 社区已经引起了极大的关注与讨论,大家可以持续关注名单更新。

如果你同意这封联名信的观点,也可以提交自己的信息签名。

对 AI 进行强监管,到底是弊大于利,还是利大于弊,还需要时间给出答案。

更新时间 2023-11-03