大模型已经具备知觉?
AI教母李飞飞的最新回答旗帜鲜明:No。
她和斯坦福逻辑学家、哲学家John Etchemendy刚刚发表一篇合著文章,标题很直接:
文章中还写道:
这与图灵奖得主Yann LeCun的最新观点不谋而合。LeCun的言论还要更犀利一些:
两位大拿同时发声,使得围绕AI知觉的争议话题再度发酵,不少网友已经第一时间加入论战,be like:
那么,在聆听你的观点之前,我们先留下一些思考的时间,一起来看看李飞飞文章具体内容——
不,现在的AI不具备知觉
通用人工智能(AGI)是一个术语,用于描述在人类所能展示的智能的所有维度上,至少和人类具备同等水平的人工智能体。
之所以需要添加“G”,是因为由AI驱动的系统激增,但它们只专注于单一或极少数任务。IBM的“深蓝”可以击败世界冠军卡斯帕罗夫,但即使房间着火,它也不能理解是时候停止下棋了。
现在,通用智能有点像一个神话,至少如果我们自命不凡地认为我们拥有它的话。
在动物世界中可以找到大量智能行为的例子,其结果远远好于人类在类似任务上取得的成果。这么说吧,我们的智力不是完全通用的,但足够通用,足以使我们在大多数环境中完成自己想做的事。
如果我们饿了,我们会去找当地的超市。如果房间着火,我们会去找逃生出口。
通用智能的基本特征之一是“感知力”,即拥有主观体验的能力。知觉是通向通用智能的关键一步。
随着ChatGPT的发布,大语言模型(LLM)时代已经拉开序幕。这立即引发了关于这些算法是否真的具备知觉的激烈争论。
基于LLM的人工智能可能具备的知觉,不仅引发了媒体的狂欢,也深刻地影响到了全球范围内对如何监管AI的态度。
最突出的观点是,“有知觉的AI”的出现可能对人类极其危险,会带来“人类灭绝”、“生存危机”。
毕竟,有知觉的AI可能会发展出自己的欲望,人类无法保证它们不与我们发生冲突。
这篇短文源于一次群聊,目的是反驳LLM可能已经获得知觉的论点。这并不完整全面。我们的主要观点是反对“有知觉的AI”阵营提供的最常见的论点。
为什么有些人相信AI已经获得知觉
在过去几个月里,我们俩与AI领域的许多同事进行了激烈的辩论和对话,其中包括与一些最著名AI科学家的一对一对谈。
AI是否具有知觉一直是一个焦点话题。他们中的一小部分人坚信事实确实如此。以下是其中一位代表的观点:
为什么他们错了
这乍一看很有道理,但这个论点是错误的。两种情况完全不可同日而语。
当你说“我饿了”时,你正在经历饥饿,而我判断你的主观体验是基于大量的事实证据。
首先,是你说的话,也许还有一些其他行为证据,比如肚子的咕咕声。
其次,没有相矛盾的证据,比如你其实刚吃完一顿四菜一汤的大餐。
最后,也是最重要的一点,你我拥有一样的肉体,需要周期性地进食进水,冷时冷,热时热,等等。
而大模型呢?它可以产生一串音节说“我饿了”,但相似之处到此为止。大模型没有身体,根本就不会挨饿。它不具备饥饿所需要的生理机能。
所有的感觉——饥饿、疼痛、坠入爱河,都是大模型根本不具备的生理状态导致的结果。因此大模型不可能对这些状态有主观体验。换句话说,它不可能有感知力。
大模型是在芯片上编码的数学模型,并非如人类一样的具体存在。它没有需要进食、饮水、繁殖、经历情感、生病并最终死亡的“生命”。
理解人类如何生成单词序列,和大模型如何生成相同序列之间的深刻差异非常重要。
当我说“我饿了”时,我是在报告我感知到的生理状态。
当LLM生成“我饿了”这个序列时,它只是在生成当前提示中单词序列最可能的补全。这是概率补全。
我们还没有实现有知觉的人工智能,更大的语言模型也不会让我们实现这一目标。
如果我们想在AI系统中实现知觉,我们需要更好地了解知觉到底是如何在生物系统中产生的。
我们不会在下个版本的ChatGPT中偶然发现知觉。
One More Thing
本文翻译主要由Claude3完成,于是人类编辑也把这个话题抛给了Claude3。
Claude3表示:李飞飞说得对。