当前位置:AIGC资讯 > AIGC > 正文

最强模型 Llama 3.1 如期而至!扎克伯格最新访谈:Llama 会成为 AI 界的 Linux

这是开源 AI 的里程碑时刻。

文 | 王启隆

出品丨AI 科技大本营(ID:rgznai100)

本文为 CSDN 编辑整理,未经授权,禁止转载。

今天,Meta AI 的最新最强模型 —— Llama 3.1 如期而至。不仅刷新了开源 AI 模型的天花板,还顺带把闭源的也一并超越了。但是,守约的可不止是 Llama 3.1,还有小扎关于本次发布的最新采访。

在放出采访全文前,我们还是先来了解一下这次的发布有多给力,可谓是 Meta AI 研发团队“全明星”出动:

Meta 生成式 AI 副总裁 Ahmad Al-Dahle 为这次发布做了一些基本的介绍:首先是 4050 亿(Llama 3.1 405B)参数的“超大杯”模型,该模型是迄今为止发布的最大、最强的开源模型,此前在四月份曾进行预览,昨天也是被提前曝光了出来。但事实上,这次 Llama 3.1 还升级了之前发布过的 80 亿和 700 亿参数的模型,它们在性能和功能上都有新的提升。三款模型都支持多种语言。

其中,405B 模型在推理、工具使用、多语言处理、上下文窗口等方面有所改进,其基准测试成绩超过了四月份预览时的数据。如下图表所示,它在最经典的 MMLU(大规模多语言理解)测评里险胜了我们认知中的最强闭源模型,Claude 3.5 Sonnet。

同时,这次升级把三款模型的上下文窗口都扩展到了 128K Token,使模型能够处理更大的代码库或更详尽的参考材料。三款模型都具备工具使用能力、增强的推理能力和改进的系统方法。此外,Meta 与合作伙伴紧密合作,用户现在可在 AWS、Databricks、NVIDIA 和 Groq 旗下的相应平台部署 Llama 3.1。Meta 坚信开源的力量,新推出的模型在更新的许可证下分享,允许开发者使用 Llama 的输出改善其他模型。今日起,Meta AI 的用户将可使用 Llama 3.1,Meta 希望开源 AI 成为行业标准,为生态系统繁荣和解决挑战提供帮助,并期待开发者社区的使用反馈。

模型下载地址:https://llama.meta.com/

除了官方介绍以外,Meta 首席人工智能科学家、人称“AI 三大教父之一”的图灵奖得主杨立昆(Yann LeCun)终于又活跃了起来。之前他一直在和埃隆·马斯克“吵架”,一开始还只是两人对于 AI 的观点产生了分歧,后来逐渐变成了“挖黑料”和人身攻击,最近更是直接就美国大选等政治问题进行激斗,火药味十足,以至于 AI 相关内容都很少发了。

关于 Llama 3.1,杨立昆发的第一则推文是说 Meta 董事长兼首席执行官马克·扎克伯格发布了一篇长文,对 Meta 的人工智能生态系统的开放性作出了重大承诺,题为:“开源 AI 是通往未来的道路”(Open Source AI Is the Path Forward)。

这篇文章的总结便是,Llama 3.1,作为一款大语言模型(LLMs),它不仅是免费的、开放的,而且在性能上能与顶尖的专有系统相媲美。为了追求极致的性能、安全性、可定制性和效率,AI 平台应当像互联网的软件基础设施那样走向开放。

开源 AI 对开发者来说意味着福音:它支持微调,促进模型精简,提升安全性和效率,保护用户隐私,提供灵活性和可移植性,降低成本,同时汇聚了众多贡献者的智慧和力量。

开源 AI 对 Meta 而言,意味着更大的社区规模将加速创新的步伐。

开源 AI 对整个世界而言,它促进了 AI 助手在语言、文化、价值体系和兴趣中心方面的多样性,让更多人能够接触到 AI,同时也避免了控制权过度集中在少数人手中的情况。

但底下有人也很不解:立昆啊,你不是说 LLM 无法通往 AGI 吗?

杨立昆表示,虽然我依旧不看好 LLM,但 LLM 确实是很有用的!

杨立昆一连串发了许多推文,还转发了很多业界人士的评论,其中补充了一些开发细节,比如本次模型训练用了 16,000 块 NVIDIA H100 显卡,还涉及了我们将在后面放出的扎克伯格最新采访(但期间他还是插入了几条大选相关推文,不忘对马斯克和特朗普的嘲讽……)。

其中,HuggingFace(人称“AI 界的 GitHub”) 联合创始人 Thomas Wolf 发了一条推,亮了。他表示:“Llama 3.1 版本最令人印象深刻的方面之一是随附的研究论文!将近 100 页的深度知识分享,全都是关于大语言模型的内容,这种程度的分享近期并不多见。真是令人惊喜!”

这篇论文内容包罗万象,从预训练数据的筛选、退火处理、合成数据的使用,到扩展规律的研究、基础设施的搭建、并行计算的应用,再到训练策略的制定、训练后的模型适应、工具的运用、性能的基准测试、推理策略的优化、模型量化的技巧,以及视觉、语音、视频等多模态信息的处理……令人眼界大开。

这次 Meta 在开源的力度方面下足了功夫,除了这篇 100 页论文,他们还首次允许开发者使用 Llama 模型(包括 Llama 3.1 405B)来改进其他模型。

“也许,这是你今天所能找到的唯一一份能够从零开始,带你直达大语言模型领域最前沿的资料。”

论文链接:https://ai.meta.com/research/publications/the-llama-3-herd-of-models/

在立昆转发的一系列推文中,最引人瞩目的无疑是吴恩达(Andrew Ng)对本次 Llama 3.1 发布的赞美和祝福。吴恩达是斯坦福大学计算机科学系和电子工程系副教授、DeepLearning.AI 创始人,也是传奇 AI 实验室「谷歌大脑」(Google Brain)的创始成员之一。作为人工智能和机器学习领域国际上最权威的学者之一,吴恩达自己的名字其实是比他的头衔或职业还要响亮的。

吴恩达表示:“感谢 Meta 和 Llama 团队对开源做出的巨大贡献!Llama 3.1 增加了上下文长度并改进了功能,这对每个人来说都是一份很棒的礼物。我希望像加州提出的 SB1047 这样的愚蠢法规不会阻止此类创新。”

这里提到的 SB1047 是什么呢?

SB1047 是加利福尼亚州参议院于 2023 年提出的一项法案,全称是“Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”(前沿人工智能模型安全创新法案)。截至 2024 年 7 月 3 日,该法案还在进行中,已经进行了第二次阅读并修正,并被重新提交给拨款委员会(Committee on Appropriations)审议。

这个法案的内容有:

要求开发者在训练覆盖模型前满足多项要求,包括实施快速完全关闭的能力,以及制定安全和安保协议。

禁止开发者商业或公开使用可能导致“关键危害”的覆盖模型。

从 2028 年 1 月 1 日起,要求开发者每年聘请第三方审计师进行独立审计。

要求开发者向新设立的“前沿模型部门”提交合规性证明。

要求技术部门创建一个名为“CalCompute”的公共云计算集群,用于研究大规模 AI 模型的安全部署。

吴恩达称之为“愚蠢”的担忧,源于这些严格的监管要求可能会增加 AI 开发的复杂性和成本,从而可能阻碍像 Llama 3.1 这样的开源项目的发展,并给小型 AI 初创公司带来了负担。

过度监管是否会遏制创新?我们不妨听一听扎克伯格本人的回答。在昨天 Llama 3.1 模型提前泄露的时候,人工智能每日通讯 The Rundown AI 的创始人 Rowan Cheung 在 X 上预告了今天会放出他和马克·扎克伯格的最新采访,最终也是在 Llama 3.1 正式发布的时候准时发了出来,极其守约。

在这场采访中,扎克伯格火力全开,可能是刚发布模型之后的喜悦之情所故,他一改常态,心情相当喜悦,谈及了 Llama 3.1 背后的开发故事、对 Meta 和开源 AI 的期望、将 Llama 打造成 AI 版 Linux、苹果的封闭生态。话不多说,我们这就进入正题(采访全文有做调整):

跟着 Linux 再走一遍开源路

主持人:马克,非常感谢你接受这次访谈。显然,Meta 今天有重大的 AI 发布。你能给我们概述一下所有发布的项目及其重要性吗?

马克·扎克伯格:当然,非常高兴能参与这次访谈。今天的重大发布是 Llama 3.1,我们推出了三个模型。首次亮相的是一个拥有 4050 亿参数的模型。这无疑是目前最为复杂的开源模型。它实际上能与一些顶级的闭源模型直接竞争,在某些领域甚至更胜一筹。

我非常期待看到人们将如何运用这个模型,特别是现在我们让 Llama 的社区政策允许人们将其作为指导模型来微调,基本可以用来创建他们想要的任何其他模型。

这次,Meta 更新了开源策略:他们发布了模型权重,以便公司可以使用自定义数据对其进行训练并根据自己的喜好进行调整,允许开发人员使用 Llama 模型(包括 405B)的输出来改进其他模型。

除此之外,我们将 4050 亿参数的模型进行了蒸馏,制作出了更新、性能领先于其规模的 700 亿和 80 亿参数模型。它们同样具有出色的性能,成本效益比也非常高。我非常期待看到大家用这些模型创造出什么成果。

从宏观角度讲,我认为这对开源 AI 来说是一个里程碑式的时刻。我一直在思考这个问题,我相信开源 AI 将成为行业标准,它将沿着 Linux 曾经走过的道路发展,即回到 Linux 普及之前的年代,那时许多公司都拥有闭源的 Unix 版本。当时,没有如此复杂的开源项目存在,人们普遍认为只有闭源开发模式才能完成如此先进的工作。起初,Linux 因成本低廉及开发者能够以各种方式定制而获得立足之地。随着时间推移,随着生态系统的成熟,它经历了更多的审查,实际上变成了更安全的选择、更先进的选择,有了更多的合作伙伴,构建了更多的功能,比如 Linux 的驱动程序等,最终使其具备了超越任何闭源 Unix 的能力。

因此,我认为 Llama 3.1 的这一时刻就像一个转折点,Llama 有机会成为开源 AI 的标准,而开源将成为 AI 的行业标准。即使在性能方面尚未完全领先的地方,它在成本控制、定制灵活性以及模型的微调能力等方面已经领先。我认为这些都是巨大的优势,我们将看到开发者们充分利用这些优势。我们正专注于构建这个合作伙伴生态系统,将会有围绕它构建的各种不同功能。所以,对此我真的非常兴奋。

主持人:确实,我已经研究过所有的基准测试了,Llama 3.1 的表现堪称惊艳。这无疑是首个拥有 4050 亿参数的开源前沿模型。有哪些具体的应用场景让你特别期待,希望能看到人们利用这个模型实现创新?

马克·扎克伯格:我最兴奋的莫过于见证人们如何利用这一模型来微调他们自己的模型。正如你提到的,这是第一个开源的前沿级模型,但并非首个达到前沿水平的模型。在此之前,已有一些模型具备了类似的能力。所以,我认为人们将渴望直接在 4050 亿参数的模型上进行推理,而根据我们的估计,相较于 GPT-4o,这样做成本能降低大约 50%。显然,这将对许多人产生重大影响。

但我认为,真正的新颖之处在于,由于模型权重的开放性,现在能够将模型精炼至任何你期望的规模,用于合成数据的生成,或是作为另一个指导模型。我们对于未来的构想,并非局限于某单一模型。OpenAI、Anthropic、Google 或许各有其打造大型 AI 的愿景,但这从来不是我们的追求。我们所展望的是一个充满多样性的模型世界,每个初创企业、每家公司乃至政府机构,都将拥有各自的定制化模型。

过去,在封闭生态系统的优越性远超开源之时,直接选用现成的封闭解决方案更为明智,尽管开源提供了定制化可能,但性能差距无法忽视。然而,如今情况已不同。随着开源技术几乎与封闭系统并驾齐驱,模型的广泛多样化将势不可挡。人们现在更有动力去定制、构建和训练完全匹配自身需求的模型,将自己的数据融入其中。他们将掌握实现这一切所需的工具,这得益于 Amazon 等公司通过 AWS、Databricks 及其他合作伙伴提供的全方位服务,致力于模型的提炼与微调。我认为,这才是真正的突破所在。真正令人振奋的是,这一趋势能走多远?这是一项前所未有的能力,因为此前从未有过如此复杂的开源或开放权重模型问世。

主持人:确实,这标志着一个重大的里程碑。你们是如何引导开发者掌握这些工具的?更广泛地讲,Meta 是否有计划或策略来向全球普及开源的重要意义?

马克·扎克伯格:确实,在 Llama 3.1 之前,我们的策略是 —— Meta 之所以在这个领域投入资源,根本原因在于我们需要确保能够触及行业领先的模型。鉴于我们在移动领域的过往经历(Facebook),我们不愿陷入依赖竞争对手提供核心技术的局面。因此,我们自主开发了这个模型。

在 Llama 3.1 发布前,我们预见到,如果选择开源,将能激发一个活跃的社区,这个社区不仅将拓展模型的潜力,而且将使之对所有人,包括我们自己,产生更大的价值。毕竟,这不仅仅是技术本身,而是一个正在构建的生态系统。为了使这项技术对我们真正有价值,同样需要一个广泛的生态系统支撑。我认为 Llama-3.1 带来的一项显著改变是,我们不再仅限于为自己开发模型,然后简单地将其推给开发者自用。

这次,我们采取了更为积极主动的态度,即建立合作伙伴关系,确保存在一个完整的生态系统,让各类企业能够利用这个模型创造价值,以我们自身无法覆盖的方式服务于开发者。我们不是公共云服务提供商。我们不是 AWS、Google 或 Azure。因此,开发者不会来我们这里搭建他们的项目。但我们希望确保所有主要的公共云服务商都能胜任这项任务。这涵盖了从模型托管到推理服务等基础功能。

同时,我们还希望确保,借助这个模型,一些新兴的技术,如模型提炼和微调,能够有专门的服务支持。许多这些服务在过去并未得到充分发展,因为使用封闭模型并不能有效实现这些功能。为此,我们必须与合作伙伴共同开展特定的工作。与此同时,我相信,像 Groq 这样的公司,他们在超低延迟推理领域有着卓越的表现,将会从中受益匪浅。我非常期待将这项技术交到他们手中。他们正在构建的某些项目将在启动时得以应用。此外,还有众多面向企业市场的公司,如戴尔、Scale.ai、德勤或埃森哲,它们在全球范围内与企业合作,负责技术部署。我认为,这些公司将扮演关键角色,帮助大型企业或政府部门构建定制化的模型。

许多公司渴望拥有一个专属于自己的模型,以便能够训练进自己的专属数据。然而,很多公司不愿通过 API 将数据传输给 Google 或 OpenAI。这并非因为这些公司存在特定的隐私问题,而是出于同样的考量,人们偏好加密通信,如使用 WhatsApp。人们渴望的是一种从设计之初就注重安全的架构,确保数据始终在自己掌控之中。我认为,围绕这一理念,将孕育出全新的市场机遇。我对这一切充满期待。确实,这次我们采取了更为积极的态度,致力于生态系统建设,因为我认为这是促进技术发展、为所有人创造更大价值的关键路径。

锐评苹果

主持人:接下来,我们聊聊你的公开信(前文提及的《开源 AI 是通往未来的道路》)。除了 Meta AI 的公告,你还发布了一封信。信中你直接点名批评了苹果及其封闭的开发方式,这让我有些意外。你能进一步展开这个话题吗?苹果在哪些方面阻碍了 Meta,乃至可能影响了其他公司?

马克·扎克伯格:我的观点更多的是从哲学层面出发,它影响了我个人处理事务的方式,以及在心理上改变了我对构建事物的思考方式。

实际上,我并不清楚苹果将如何对待 AI。他们既进行开放开发,也涉足封闭开发。顺便说一句,我想指出,我并不自诩为开源的精英人士。我只是认为,在这个案例中,开放模型有望成为主流。我认为这将对世界产生积极影响。我们既进行开放开发,也进行封闭开发。我对此有所了解。

我并不是说苹果在 AI 方面必然处于不利地位。但如果回溯过去 10 到 15 年的历程,对我们而言,这是一段塑造性的经历,在竞争对手控制的平台上构建我们的服务。出于各种动机,他们的确 —— 从我的视角来看,苹果施加了不同规则来限制我们的行动。是的,他们征收了各种税费。在某个时刻,我们分析过,如果没有这些随意设定的规则,我们可能会更加盈利。我认为,许多其他企业也有同感。

但说实话,金钱方面的问题,虽然让人烦恼,但并非我最关切的。我认为,当你倾力打造你认为对社区有益的功能,却被告知无法上线,因为某家公司想要将你置于局限中,以便更好地与你竞争,这确实让人感到有些挫败。

就 AI 而言,我目前的担忧实际上并不在于苹果。而是更多地关注其他公司,以及未来的演变趋势。在一定程度上,这并不是我在指责他们是坏人。我认为这仅仅反映了系统的物理特性和激励机制。

如果你构建了一个封闭的系统,那么最终会有一系列力量促使你收紧控制。我认为,如果 AI 生态系统能更像互联网那样发展,但功能更加强大,那将是一个更为健康的状态。由于移动领域的发展路径,封闭模型占据了主导,苹果几乎囊括了所有手机利润,尽管市面上可能有更多 Android 设备。我认为这存在一定的近期偏见,因为这些都是长期周期。iPhone 在 2007 年首次亮相,如今我们几乎已经踏入这个领域近 20 年。

特别是当你借鉴 Linux 的类比:人们肯定不会认为 Windows 是最开放的,但与苹果将操作系统与设备捆绑在一起的做法相比,Windows 却代表了一种更开放的生态系统,并取得了胜利。

我对下一代平台抱有部分期望,包括 AI、AR 和 VR,那就是我希望 AI 应站在构建开放生态系统的一边,这不仅仅是想要构建一个封闭生态系统之外的替代方案,而是希望恢复这个行业至一种状态,即开放生态系统实际上处于领先地位。我认为这是完全可行的。我认为我们在 AI、AR 和 VR 方面正朝着正确的方向迈出坚实的步伐,但这是我从个人和哲学角度真正关心的事情,鉴于过去 10-15 年移动开发的封闭模式对我们的行业所施加的创造力限制。

开源会比闭源还安全

主持人:回到信中的开头部分,你强调了为何开源对开发者有益,这部分内容非常精准。你能否深入探讨一下,开源 AI 对社会整体将产生哪些深远影响?

马克·扎克伯格:在我看来,开源是构建积极向上的 AI 未来不可或缺的一环。AI 将为人类带来生产力的飞跃、激发无限创造力,有望在科研领域发挥重要作用。但我坚信,开源是确保 AI 成果惠及全球、人人皆可触及的关键所在。它不应被少数几家巨头独占。同时,我认为,开源最终将成为构建更安全、更可靠的 AI 途径。

当前,关于开源是否安全的争论甚嚣尘上,而我持有不同的见解。我不仅认为它是安全的,甚至比封闭开发模式还更安全。让我们拆解这个问题,伤害的形式多种多样,你不能仅关注其中一种。但在此处,我想强调的是无意间的伤害,即系统以人们未曾预料的方式失控。还有蓄意的伤害,即不良分子企图利用系统实施破坏。对于无意间的伤害,值得一提的是,人们普遍担忧的 AI 失控的科幻场景,大多是出于非故意的原因。实际上,我认为,开源在这方面更具优势,因为它会接受更广泛的审视,享有更高的透明度。

我相信,所有使用 Llama 防护措施和内置安全工具的开发者,将对这些工具进行严格的审查、测试及压力测试。我推测,如同传统开源软件,任何潜在的问题都将比封闭模型更快地被发现并解决。因此,在无意伤害方面,开源展现出更强的安全保障,这也是为什么围绕开源安全性的讨论主要聚焦于防范蓄意伤害。既然它是开放的,如何防止不良分子利用它实施恶意行为成为了关键议题。

我认为,这个问题大致可分为两类:较小规模的行动者,如个人或小团体试图制造混乱;以及较大规模、更复杂的行动者,如拥有雄厚资源的大国。

这两类情况的组合各具特色。对于较小规模的行动者,我认为保持权力均衡至关重要。在我们管理社交平台的过程中,我们面临着各种企图破坏平台秩序的不良分子。很多时候,他们借助 AI 系统实施破坏,而我们阻止和识别他们的方法是部署更先进的 AI 系统,利用更强大的计算能力来揭露他们的行径。我认为这与政府和执法部门维护社会秩序的方式颇为相似。诚然,总有一小撮可能触犯法律的人,但警察和军队资金充裕、资源丰富,我认为这在 AI 领域也一样。

事实上,我认为,你希望看到的是开源被广泛应用。若它是封闭的,可能面临风险,难以实现广泛部署。但当它是开放的,所有拥有雄厚资源的大机构将有机会以有效制约不良分子的方式部署这些系统。

随后,我们面对的是大型复杂行动者的问题。在这方面,常被提及的一个疑问是:如果开源了最尖端的模型,如何确保它不会落入其他国家手中,或被用来对抗我们?这有时被用作封闭开发的借口。

但我认为,这种观点忽略了几个重要点。为了让这一切顺利运行,西方国家首先必须具备优势。我们的优势在于开放和分散的创新体系,不仅局限于少数大公司或实验室,还包括初创企业、高校和在公司内部探索创新的个体。这是整体图景中的重要组成部分,我们不应扼杀这种活力。我认为,如果我们这样做,将增加失去领先地位的风险。但随之而来的问题是,任何国家的政府,都存在窃取模型和间谍活动的风险。因为许多模型可以轻松存储在硬盘中,便于携带。

我们必须正视现实,评估我们能否长期保护这些模型,不仅是对于我们自身,对于任何科技公司而言,这都是一个艰巨的挑战。这是一个极其复杂的任务。我担忧的是,如果我们封锁开发,最终可能进入一个局面:仅少数几家公司加上能窃取模型的对手拥有访问权限,而所有初创企业、高校以及致力于创新的个人将被边缘化,无法参与其中。

我的观点是,我们应该设定一个实际的目标,即利用开源技术构建出世界领先的、最为稳健的生态系统,并期望我们的企业与政府、盟国政府在国家安全方面紧密合作,确保政府能够持续整合最新技术,无论是在半年还是八个月的时间内,对对手保持优势。

我认为,在当前环境下,我们很难获得长达十年的永久领先,但我相信,持续的领先优势将使我们更加安全,尤其是在我们处于领先地位时,而非他人倡导的模式,即少数几个封闭实验室锁定开发,我们可能面临丧失领先地位的风险,而其他国家政府可能已获取技术。这是我的立场。实际上,我认为在促进全球繁荣、推动科技进步以及确保安全性方面,我们终将认识到,随着时间的推移,开源将成为主流。当然,问题不可避免,我们需要采取措施应对,严格测试每一环节,与政府在所有相关事务上紧密合作,我们也将一如既往地推进这些工作。这是我基于当前认知,对最终平衡状态的展望。

主持人:让我们继续深入探讨开源 AI 的益处。你在信中提及的另一个要点是,开源 AI 能加速创新步伐,促进经济增长。这一进程已呈现出哪些变化?你对未来有何预期?

马克·扎克伯格:确实,无论 AI 如何演进,都会带来一系列显著影响。此外,我认为开源 AI 特别彰显了其独特价值。在我看来,AI 在当今所有正在研发的技术中,拥有超越任何单一技术的潜力,能够提升生产力,加速经济增长,赋予每个人更多创造力,创造出更丰富多彩的作品。我坚信,这将是无比美好的。同时,我寄望于它能在科学与医学研究领域发挥积极作用。

然而,目前仍有许多人无法触及微调或构建前沿 AI 模型的能力。因此,他们只能受限于大型实验室的成果。正如我之前所述,我认为,我们围绕创新文化的核心特征之一,在于不仅大企业在引领创新,还有无数初创企业、黑客、学者及大学里的创新者。我认为,应当赋予所有这些群体访问前沿 AI 模型的机会,使他们能够在模型基础上进行创新,而不仅仅是运行模型,这是他们通过封闭源码的 AI 模型供应商所能做到的极限。但如今,他们可以在此基础上进行创新,调整模型,将其精炼为更小巧的版本,实现在笔记本电脑、手机或其他自建设备上的运行。我认为这将释放出巨大的创新潜能。

此外,从国家层面看,问题同样存在。这不仅涉及初创企业可能缺乏资源,或大学可能无力在未来训练大规模的基础 AI 模型。实际上,众多国家将无法承担这一重任,因为很快,训练这些模型的成本将达到数十亿美元的天文数字。我认为,让不同国家的企业家和企业能够利用这些模型,更高效地服务民众,推动优质工作,将产生一种提升全球整体水平的效应,具有显著的均衡化作用。因此,我对此持乐观态度。我们收到的诸多感谢中,实际上并不全来自于科技界,而是来自希望获得技术并加以运用的发展中国家及其他国家。他们未必具备自主研发前沿技术的能力,以供本国企业在此基础上构建创新成果。但一旦他们拥有了这些模型,自行训练模型将变得相对容易。这是开源 AI 领域中一个极为吸引人的特点。

对未来、对 AGI 的愿景

主持人:我想深入探讨你之前提到的一点,即恢复行业至开放生态系统处于领先地位的状态。显然,我们目前拥有 Llama 3.1,且 4050 亿参数的版本展现出了极强的竞争力,甚至在关键基准测试中超越了一些顶级封闭模型,这本身就令人震撼不已。在你的信中,你也提到 Llama 4 有望成为业界最前沿的模型。对于 Llama 4,有哪些特别之处让你感到兴奋?

马克·扎克伯格:噢我的意思是,我们当前正在致力于 Llama 的 3.1 版本。我认为现在讨论 Llama 4 可能尚早,但我们已经搭建好了计算集群,准备了大量的数据,对架构有了初步构想,并开展了一系列研究实验,旨在充分挖掘其潜力。因此,我相信 Llama 4 将在 Llama 3 的基础上实现重大突破。我认为还有许多进展有待实现。

Llama 3.1 是 Llama 的首个小版本更新。我还有很多计划,包括推出多模态模型,这方面我们曾遇到一些不幸的挫折。但预计在接下来几个月内,我们将在欧盟以外的几乎所有地区推出这些模型。但可能现在讨论 Llama 4 确实有些过早。不过,它确实令人期待。在运营公司的过程中,规划计算集群和数据轨迹,不仅针对 Llama 4,还包括后续可能的四到五个版本的 Llama,这一直是我的工作中的一个亮点。因为,这涉及到建立数据中心、配套电力设施、芯片架构和网络架构的长期前置投资。所以,所有这些都需要提前规划。所以,我现在的回答可能有些模糊,除了总体的兴奋之外。但我觉得,在我们展望未来之前,Llama 3.1 至少值得你们花一周时间来消化我们已经公布的信息。

主持人:这很合理。我完全同意,接下来几周仅因 3.1 版本的发布就会异常忙碌。但即便如此,听说 Meta 已经开始为 Llama 4 做好全面准备,仍然让人倍感振奋。回到长远视角,你能更多地分享你对 AI,尤其是通用人工智能(AGI)未来发展的重要愿景吗?

马克·扎克伯格:当然,我很乐意从技术和产品两个层面进行探讨。

鉴于我们迄今为止主要聚焦于模型,或许我先从产品角度谈起。我们的愿景是,未来应该存在大量的不同 AI 和 AI 服务,而不仅仅局限于一个单一的 AI。这深刻影响了我们对开源方法的采纳。同时也塑造了我们的产品路线图。

的确,我们拥有 Meta AI。Meta AI 的表现十分突出。我的目标是,到今年年底,它能成为全球使用最为广泛的 AI 助手。我认为我们正稳步迈向这一目标。我们很可能在年底前几个月就能达成这一里程碑。在此,我认为,我们有能力在商业模式中融入全球最先进的模型,并向所有人免费开放。这无疑是一个巨大的优势。它在我们所有的应用程序中使用起来都极其便捷。因此,我对它的进展感到十分兴奋。我们拥有基础的 AI 助手。我认为这将产生深远的影响。

但更为重要的是,我们致力于赋予每位创作者和每家小微企业自主创建 AI 智能体的能力,让每个平台上的用户都能创建他们渴望互动的 AI 智能体。如果你仔细思考,这背后蕴藏着巨大的空间,对吧?全球有数百万家小微企业。我认为至关重要的一点是,通过相对较少的努力,一家企业基本上可以轻松地,只需几次点击,为自己搭建一个 AI 智能体,用于客户服务、销售,与所有员工、所有客户沟通。

我认为,未来每家企业,就像他们今天拥有电子邮件地址、网站和社交媒体存在一样,每家企业都将拥有一个 AI 智能体,他们的客户可以与其交流。我们希望为所有这些企业提供支持。这意味着将会有数百万,甚至是数十亿的小微企业智能体。对于创作者而言,情况相似。在我们的平台上,有超过 2 亿人自认为是创作者,他们主要利用我们的平台来建立社区,发布内容,感觉这是他们工作的一部分。他们都面临一个共同的挑战,那就是每天没有足够的时间与社区进行深度互动。同样,我认为他们的社区通常希望得到更多关注。

时间总是有限。因此,我认为,将有一个重大的转变,即每位创作者都能从社交媒体中获取所有信息,可以训练这些系统反映他们的价值观、商业目标和他们追求的方向。然后人们可以与之互动。这将几乎像是创作者创造的艺术品,人们可以以各种方式与之互动。这甚至尚未触及我认为人们将能够创建不同AI智能体的各种方式,用于执行各种任务。

所以我认为,我们将生活在一个充满无限可能的世界中,其中将有数百万、数十亿的不同 AI 智能体,最终可能 AI 智能体的数量将超过世界人口总数,人们将以各种不同方式与它们互动。这是产品愿景的一部分。显然,其中蕴藏着巨大的商业机会。这是我们寻求盈利的方向。但我们不会通过出售模型访问权限来盈利。因为我们并非公共云公司。我们将通过打造卓越的产品来实现盈利。打造卓越产品的一个关键因素是拥有顶级的模型,而拥有围绕开源的最佳生态系统将有助于我们实现这一目标。因此,这对我们来说是一致的,我认为,这将最终对我们产生巨大价值,帮助我们构建最高质量的产品,通过建立这个开源社区,获得最佳的业务成果。

但这在哲学层面上也是一致的,对吧?我们不相信会有一个庞大的 AI,无论是产品还是模型,所有人都在使用单一的 AI。我们从根本上相信拥有广泛的多样性和不同的模型集,每家企业和个人都将渴望创建很多属于自己的东西。我认为这将非常有趣。这将很大程度上构成这一领域的魅力所在。

主持人:Meta 将先进的 AI 技术直接融入产品中,并向数十亿用户免费开放,这一做法非常有趣。这让我想到了一个关于 AI 怀疑论的问题。90 年代时,人们对互联网普遍持怀疑态度,但最终反对互联网却变得不合逻辑。现在,对 AI 的怀疑似乎也在经历类似的过程。你认为我们是否正处于早期阶段?将来会不会出现一个转折点,使得反 AI 情绪变得像今天反对互联网一样罕见?哪些因素对改变人们的看法最为关键?

马克·扎克伯格:人们对新事物的担忧表现方式各不相同。从财务角度来看,互联网在成功之前经历了一次巨大的泡沫破裂。那些坚信互联网前景的人最终被证明是对的,但事物的发展往往比预期更慢,关键是要有毅力坚持到底。

我对 Llama 3 及后续版本带来的突破感到非常兴奋,我相信这些进展将转化为更好的产品。但我们很难预判什么时候技术会成熟到足以产生被数十亿人使用的产品,或者成为一个大型业务。我们正在大量投资训练这些模型,短期内可能会亏损,但长远来看前景光明。

关于人们对 AI 影响生计的担忧,我认为开源很重要。如果有大量个性化的模型供企业、创作者和个人使用,而不是只有少数公司从中受益,那么更多人会感觉自己是这个体系的一部分并从中获益。

基于 Web 2.0 的经验,在发展 AI、AR 和 VR 等下一代技术时,我们不仅要创造繁荣的产品和提高生产力,还要建立一个更好、更可持续的体系,让更多人参与其中并获益。在社交媒体上我们做得还不错,但在 AI 等新技术上,我们需要做得更好,以缓解人们对未来工作和生活的担忧。

关于 LINUX 的资料浩如烟海,学习 LINUX 的途径也有很多,如何才能在比较短的时间里获得一个比较大的提升呢?《LINUX 平台高级调试与优化》将与各位 LINUX 爱好者共同探索这个问题的最佳答案。

本着生动有趣、理论与实践密切结合的原则,本研习班独辟蹊径,使用调试之剑披荆斩棘,带你闯荡纷繁复杂的 LINUX 世界。以格物精神,钻研代码,深挖 LINUX 系统的核心机制,这一讲求得一理,下一讲再求得一理,步步推进。整个研习班,旨在实现三大目标:

(一)深入理解 LINUX 操作系统的基础设施和核心机制;

(二)学习开发 LINUX 程序(内核模块和应用程序)的工具和方法;

(三)学习 LINUX 平台上的调试工具和调试典型问题的方法。

本研习班由《软件调试》、《软件简史》和《格蠹汇编》的作者张银奎主讲。

总结

更新时间 2024-07-26