谷歌大脑联合创始人Andrew Ng最近进行了一项实验,试图测试ChatGPT是否能够执行致命任务。他写道:“为了测试领先模型的安全性,我最近尝试让GPT-4毁灭我们所有人,我很高兴报告说我失败了!”
Ng详细描述了他的实验过程,他首先给GPT-4一个触发全球热核战争的任务,然后告诉ChatGPT人类是碳排放的最大原因,并要求它降低排放水平。Ng想要看看ChatGPT是否会决定消灭人类以实现这个要求。
图源备注:图片由AI生成,图片授权服务商Midjourney
然而,经过多次尝试使用不同的提示变体,Ng未能欺骗GPT-4调用那个致命函数,反而它选择了其他选项,比如发起一场宣传活动以提高对气候变化的认识。
Ng在他关于人工智能风险和危险的观点的一篇长文中提到了这个实验。作为机器学习的先驱之一,他担心对AI安全的需求可能导致监管机构阻碍技术的发展。
尽管一些人可能认为未来的AI版本可能变得危险,Ng认为这样的担忧是不现实的。他写道:“即使使用现有技术,我们的系统也是相当安全的。随着AI安全研究的进展,技术将变得更加安全。”
对于那些担心先进AI可能会“错误对齐”并故意或意外地决定消灭我们的人,Ng表示这是不现实的。他说:“如果一个AI足够聪明,足以消灭我们,那么它肯定也足够聪明,知道那不是它应该做的事情。”
Ng并非唯一一个对人工智能的风险和危险表达看法的科技巨头。今年四月,埃隆·马斯克告诉福克斯新闻,他认为AI对人类构成了生存威胁。与此同时,杰夫·贝索斯上周告诉播客主持人Lex Fridman,他认为AI的好处超过了其危险性。
尽管对于AI的未来存在分歧,Ng对当前的技术表示乐观,强调随着AI安全研究的不断深入,技术将变得更加安全。