当前位置:AIGC资讯 > AIGC > 正文

史上最强开源模型Llama 3.1,媲美GPT-4o和Claude 3.5 Sonnet!

大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效率提升,AI行业洞察。关注我,AI之路不迷路,2024我们一起变强。

开源模型会越来越落后?百度,你再次被狠狠打脸了。

北美时间7月23日,Meta(原Facebook,脸书)公司正式官宣发布了开源模型Llama 3.1。不出意外的话,根据各项AI模型基准测试的结果来看,Llama 3.1将会成为史上最强大的开源LLM模型。Llama 3.1模型具备128K的上下文长度,支持八种语言,并推出了首个开放源码前沿级AI模型Llama 3.1 405B。作为首个开源的前沿级AI模型,Llama 3.1 405B在通用知识、可控性、数学、工具使用和多语言翻译等方面拥有最先进的能力,能与目前市场上最好的闭源模型相媲美,如GPT-4oClaude 3.5 Sonnet

Llama 3.1通过扩展上下文长度、增强推理能力和改进工具使用,能够支持高级应用如长文本摘要、多语言对话代理和编程助手。此外,Meta还注重该模型的开放性和可扩展性,鼓励开发者创建自定义代理和新型智能行为,同时配备了如Llama Guard 3和Prompt Guard等安全工具,以支持负责任的开发。

Llama 3.1的三种型号

和大多数AI模型一样,Llama 3.1也包含三种型号:405B、70B和8B,表示模型的参数量依次降低。这三档模型均支持128K上下文长度,增强了长文本处理和对话能力。

405B 型号:这是Llama 3.1系列的最强模型,具有最广泛的使用案例。它以4050亿参数成为目前参数量最大(参数量越大某种程度上意味着“智商”越高)的开源模型,适用于复杂的数学问题和多语言翻译等任务。

70B 型号:高性能且性价比很高的中端模型,类似于Claude 3系列中的Claude 3 Sonnet,能适用于多种使用案例。它在性能和成本之间取得了良好的平衡,非常适合需要强大但不及最大模型资源需求的应用。

8B 型号:轻量级且超高速,几乎可以在任何设备上运行。它特别适合资源受限的环境,仍能提供强大的语言处理能力。

Llama 3.1基准测试结果

Llama 3.1 405B

Llama 3.1 405B模型在多个测试中表现优秀,在某些领域甚至超过了目前AI领域最强模型GPT-4oClaude 3.5 Sonnet

强项:

数学能力:在GSM8K测试中得分96.8,为所有模型中最高。

推理能力:ARC Challenge得分96.9,同样是最高分。

长文本处理:ZeroSCROLLS/QuALITY测试得分95.2,与GPT-4持平,优于其他模型。

多语言能力:Multilingual MGSM测试得分91.6,与Claude 3.5 Sonnet并列最高。

相对弱项:

GPQA测试得分51.1,低于GPT-4 OmniClaude 3.5 Sonnet

Nexus测试得分58.7,虽然高于其他已测试模型,但分数相对较低。

通用能力:

MMLU和MMLU PRO测试中表现良好,分别得到88.6和73.3分。

IFEval测试得分88.6,与Claude 3.5 Sonnet相当,高于其他模型。

HumanEval和MBPP EvalPlus测试中也有不错表现,分别得分89.0和88.6。

工具使用:

BFCL测试得分88.5,表现不错但略低于Claude 3.5 Sonnet

特殊测试:

NIH/Multi-needle测试得分98.1,虽然低于GPT-4系列的满分,但仍然非常高。

Llama 3.1 405B模型在多个领域展现了强劲的性能,特别是在数学、推理和长文本处理方面。它在某些测试中甚至超过了其他知名闭源模型,展现出较为全面的能力。

Llama 3.1 8B

总体表现: 作为较小的模型,Llama 3.1 8B 在多个测试中表现出色,尤其考虑到其较小的参数规模。

强项:

数学能力:GSM8K 测试得分 84.5,表现优秀。

推理能力:ARC Challenge 得分 83.4,高于某些更大的模型。

长文本处理:ZeroSCROLLS/QuALITY 测试得分 81.0,显示出不错的长文本理解能力。

相对弱项:

GPQA 测试得分 32.8,相对较低。

Nexus 测试得分 38.5,虽然超过了一些竞争对手,但仍有提升空间。

通用能力:

MMLU 和 MMLU PRO 测试中表现尚可,分别得到 73.0 和 48.3 分。

IFEval 测试得分 80.4,显示出良好的通用理解能力。

特殊测试:

NIH/Multi-needle 测试得分高达 98.8,表现非常出色。

Llama 3.1 70B

总体表现: Llama 3.1 70B 作为更大的模型,在几乎所有测试中都表现优异,经常超越其他模型,包括 GPT 3.5 Turbo

强项:

数学能力:GSM8K 测试得分 95.1,大幅领先其他模型。

推理能力:ARC Challenge 得分 94.8,表现卓越。

长文本处理:ZeroSCROLLS/QuALITY 测试得分 90.5,展现出强大的长文本理解能力。

多语言能力:Multilingual MGSM 测试得分 86.9,远超其他模型。

相对弱项:

GPQA 测试得分 46.7,虽然领先于表格中的其他模型,但仍有提升空间。

Nexus 测试得分 56.7,虽然高于其他模型,但相对于自身其他测试结果略显逊色。

通用能力:

MMLU 和 MMLU PRO 测试中表现优秀,分别得到 86.0 和 66.4 分,领先其他模型。

IFEval 测试得分 87.5,展现出强大的通用理解能力。

HumanEval 和 MBPP EvalPlus 测试中表现出色,分别得分 80.5 和 86.0。

特殊测试:

NIH/Multi-needle 测试得分 97.5,虽略低于 8B 版本,但仍然非常出色。

Llama 3.1 70B 模型在几乎所有测试中都展现出卓越的性能,显著优于其 8B 版本,并在多个领域超越了包括 GPT 3.5 Turbo 在内的其他模型。它展示了强大的全面能力,特别是在数学、推理、长文本处理和多语言任务方面。

如何体验Llama 3.1 405B

https://www.meta.ai/

https://llama.meta.com/

结语

Llama 3.1模型其实早在几天前,就因为消息泄露而引起了很多关注。今天正式发布后,更是以其强大的性能技惊全场。感兴趣的朋友不妨一试。

精选推荐

关于Meta AI的Llama系列的更多文章,请看这里。

ChatGPT又多了一个强有力的竞争对手:Meta发布Llama 3开源模型!附体验地址

Llama 3“智商”测试:英文提示表现亮眼,中文不完美但差强人意!

开源模型会越来越落后?答案就藏在刚发布的Llama 3里!

都读到这里了,点个赞鼓励一下吧,小手一赞,年薪百万!????。关注我,AI之路不迷路,原创技术文章第一时间推送?。

总结

**文章总结**
木易,一个AI领域互联网技术产品经理,分享AI知识,展望2024年与大家共同进步。本文重点讨论了Meta(原Facebook)公司发布的强大开源AI模型`Llama 3.1`。
### **Meta发布`Llama 3.1`开源模型**
- **时间**:北美时间7月23日。
- **模型特点**:具备128K的上下文长度,支持八种语言,包括最强大的405B版本。
- **主要成就**:
- 成为史上最强大的开源LLM模型,能与`GPT-4o`和`Claude 3.5 Sonnet`等顶级闭源模型媲美。
- 强化了长文本摘要、多语言对话代理和编程助手等高级应用能力。
- 提供开放性和可扩展性,支持自定义代理和智能行为,同时配备Llama Guard 3和Prompt Guard等安全工具。
### **三种型号及能力**
- **405B**:最强大版本,适合复杂数学问题和多语言翻译,具有4050亿参数。
- **70B**:性价比高的中端模型,性能和成本间平衡良好,超越`GPT 3.5 Turbo`。
- **8B**:轻量级超高速模型,几乎可运行于任何设备,资源受限环境下的好选择。
### **基准测试结果**
- **405B**:在数学、推理和长文本处理等方面表现出色,尤其在GSM8K、ARC Challenge等测试中获得最高分。
- **8B**:作为小型模型,也在多个测试中有优秀表现,尤其是数学、推理和长文本理解方面。
- **70B**:几乎所有测试中表现优异,特别是数学和推理能力,超越多数竞争对手。
### **如何体验`Llama 3.1 405B`**
- 访问:[Meta AI官网](https://www.meta.ai/) 和 [Llama官网](https://llama.meta.com/)
### **结语与推荐**
- `Llama 3.1`凭借其强大性能受到广泛关注,用户可通过官网进行体验。
- 推荐更多Meta AI及`Llama`系列的相关文章,继续深入探讨。
- 作者呼吁关注他,以获取AI领域最新的原创技术文章。

更新时间 2024-08-18