当前位置:AIGC资讯 > AIGC > 正文

戳穿人工智能的六个谎言:辨别真伪

译者 | 布加迪

审校 | 重楼

人工智能(AI无疑是我们这个时代的流行语。特别是随着ChatGPT等生成式AI应用程序的出现,AI大受欢迎,成为了技术辩论的核心话题

所有人都在谈论像ChatGPT这样的生成式AI应用程序的影响以及利用它们的能力是否公。然而,面对这场完美风暴,围绕AI一词的种种谎言和误解突然随之激增。可能已经听过很多这样的谎言和误解

不妨深入研究这些谎言戳穿它们,了解AI的真正本质。

1. AI是智能的

与普遍的看法相反,AI一点也不智能。现在大多数人确实认为基于AI的模型很智能。这可能是由于“人工智能”这个名称中含有“智能一词。

但是智能是什么意思呢?智能是生物体有的一种特征,定义获取并运用知识和技能的一种能力。这意味着智能使生物体能够与周围环境相互作用,从而学如何生存。

另一方面,AI是一种机器模拟,旨在模仿这种自然智能的某些方面。我们接触的大多数AI应用程序(尤其是在商业和在线平台领域)都依赖机器学习。

这些是专门的AI系统,使用大量数据进行特定任务的训练。它们擅长完成指定的任务,无论是玩游戏、翻译语言还是识别图像。

然而一旦超出其预期范围,它们通常是无用的……在一系列任务中拥有类似人类智能的AI这个概念被称为通用AI,我们离实现这里程碑事件还很遥远

2. 始终越大越好

科技巨头们常常竞相吹嘘自家的AI模型的规模有多庞大

Llama 2开源LLM以强大的700亿参数版本让世人感到惊讶,谷歌的Palma拥有5400亿参数,OpenAI最发布的ChatGPT4更是拥有1.8万亿参数

然而,LLM的成百上千亿个参数不一定意味着有更好的性能。数据的质量和训练方法常常决定模型性能和准确性的更关键因素。斯坦福大学的Alpaca实验已经证明了这点,一个简单的使用70亿参数的基于Llama的LLM其性能可以与多达1760亿参数的ChatGPT 3.5相媲美。

所以并非始终是越大就越好!优化LLM大小及其相应性能将使这些模型在本地得到更广泛的使用,并我们可以将它们集成到日常设备中。

3. AI毫无透明度和问责制可言

一个常见的误解是,AI是神秘的黑盒子,缺乏任何透明度。实际上,虽然AI系统可能很复杂,仍然相当不透明,但业界正在努力提高透明度和问责制。

监管机构要求道德负责任地使用AI。斯坦福人工智能透明度报告欧洲人工智能法案等重要举措旨在促使企业提高AI透明度,并为各国政府在这新兴领域制定法规提供基础。

透明AI已成为AI社区的一个核心讨论话题涵盖众多问题,比如允许个人确定AI模型全面测试的流程和理解AI决策背后基本原理的流程

这就是为什么全球各地的数据专业人士已经在研究使AI模型更加透明的方法。

所以虽然这个谎言可能部分正确,但显然不能作为常识。

4. AI一贯正确

许多人认为AI系统完美的,不会出错。事实绝非如此任何系统一样,AI的表现取决于其训练数据的质量。这些数据常常是由人类创建或管理的。如果这些数据含偏见,AI系统会在不经意间将偏见固化下来

麻省理工学院(MIT的一个团队分析了多个广泛使用的预训练语言模型发现将性别与某些职业和情绪关联时存在明显的偏见。比如说,空姐或秘书等角色主要与女性特质联系在一起,而律师和法官与男性特质联系在一起。该团队在情感方面观察到了同样的行为。

其他发现的偏见与种族有关。随着LLM进入医疗保健领域人开始担心,它们可能会承袭基于种族的有害医疗实践,反映出训练数据中固有的偏见。

人工干预至关重要,需要监督和纠正这些缺点,确保AI的可靠性。关键在于使用具有代表性无偏见的数据,并进行算法审计以消除这些偏见。

5. AI严重冲击就业市场

最普遍的担忧之一是,AI将导致大规模失业。

然而历史表明,虽然技术可能会淘汰某些工作,但同时也会造就新的行业和机会。

比如说,世界经济论坛预测,虽然到2025年AI可能会取代8500万个工作岗位,但将创造9700万个新岗位。

6. AI主宰人类

最后一个谎言也是最反乌托邦的。以《黑客帝国》和《终结者》等电影为代表的流行文化描绘了AI可能奴役人类的可怕场景

尽管Elon Musk和Stephen Hawking等有影响力的人物表达了担忧,但AI的现状远非这种反乌托邦的形象。今天的AI模型比如ChatGPT是为了协助完成特定的任务而设计的,不具备科幻作品中描述的能力或动机。

所以现在,我们是安全的

主要结论

总之,随着AI不断发展并融入我们的日常生活辨别真伪至关重要。

只有有了清晰的认识,我们才能充分利用AI潜力,负责任地应对其挑战。

谎言会影响判断,阻碍进步。

只有AI的实际范围清晰的了解,我们可以向前迈进,确保这项技术服务于人类。

原文标题:6 Artificial Intelligence Myths Debunked: Separating Fact from Fiction,作者:Josep Ferrer

更新时间 2023-11-16