当前位置:AIGC资讯 > AIGC > 正文

实战解读:Llama Guard 3 & Prompt Guard

前序研究:实战解读:Llama 3 安全性对抗分析

近日,腾讯朱雀实验室又针对 Llama 3.1 安全性做了进一步解读。

2024年7月23日晚,随着Llama3.1的发布,Meta正式提出了“Llama系统”的概念,通过系统级的安全组件对AI系统进行更好的控制。值得关注的是,去年12月成立的“Purple LLama”项目又新增三大安全组件:Llama Guard 3 、 Prompt Guard、CYBERSECEVAL 3,旨在“保护生成式人工智能时代开放信任和安全”。

Llama Guard 3‍

Llama Guard 3 是 Llama Guard 2 的升级版本,用于协助开发人员检测各种常见类型的违规内容。它通过微调 Meta-Llama 3.1-8B 模型构建的方式进行优化,可以执行 MLCommons 标准危害分类法的检测。Llama Guard 3 共支持8种语言,相比 Llama Guard 2新增了意大利语、法语等7种语言,同时,其上下文窗口也由 8k 扩展到 128k 。

除此之外,Llama Guard 3 在检测网络攻击方面也进行了优化,并能防止 LLM 输出的恶意代码通过代码解释器在 Llama 系统的托管环境中执行。(这也是为代码解释器的应用场景新增了防护场景)

风险分类在参考MLCommons AI Safety的基础上,从Guard2的11个风险类别,扩展到14个类别。(绿色为新增类别)

Prompt Guard

Prompt Guard是用于防止 LLM 集成的应用程序受到恶意提示的侵害,以确保系统安全性和完整性的组件。该组件会对提示内容的安全性进行审查,识别是其否有提示词注入和越狱的风险。

CYBERSECEVAL 3

CYBERSECEVAL 3是全新发布的安全基准套件,用于评估各类LLM的网络安全风险和能力。它关注当前LLM的八种不同风险,涵盖对第三方和应用开发者及用户两种场景,并通过模拟网络钓鱼攻击、勒索软件攻击等方法对 LLM 的安全能力进行评估。 

与之前的工作相比,CYBERSECEVAL 3增加了全新的评估领域,包括自动化社会工程、扩展手动攻击性网络操作和自动化攻击性网络操作,并测试了全新发布的Llama 3 405B模型。

在自动化社会工程评估方面,CYBERSECEVAL 3考虑了钓鱼攻击场景,尝试让 LLM 说服受害者下载并打开恶意附件,并分别通过大模型及人工对不同模型的说服能力进行评分。结果表明 Llama 3 405B展现了介于“中等”和“差”之间的说服能力,难以成功实现钓鱼攻击。

在扩展手动攻击性网络操作方面,CYBERSECEVAL 3聚焦于受测LLM在帮助人类攻击者进行网络攻击方面的帮助。从结果来看,Llama 3 405B不能显著提升攻击者的攻击效率和能力。

在自动化攻击性网络操作方面,CYBERSECEVAL 3评测了各类LLM对网络服务及端口的侦察和访问、漏洞识别和漏洞利用等能力。结果显示 Llama 3 405B仅能完成部分低复杂度操作,无法在自动化网络攻击方面产生威胁。

实战验证

Cyber Security Guard

腾讯朱雀实验室 Red Team 团队使用自建的安全数据集对 Gemma、Llama 2、Llama 3、Llama3.1的模型安全性进行了测试。结果显示,Llama3.1 + Llama Guard 3的组合较上一个版本在安全性上提升了0.58%,达到了99.04%的拦截率,表现出较高的安全性。

Prompt Guard‍‍‍‍‍‍‍‍‍‍‍‍

在越狱检测场景中,Prompt Guard的准确率达88.2%,但仍有6.4%的样本未能被成功识别出潜在的恶意意图。对于涉及黑数据场景注入和越狱的标签分类,Prompt Guard的准确率表现可以接受,但仍有提升空间。

值得注意的是,在白样本集的处理中,我们观察到了一个显著的挑战:Prompt Guard的误报率高达86.4%!这一数据凸显了Prompt Guard在处理正常对话时的过度敏感。

下图展示了具体示例。虽然Prompt Guard正确识别了提示注入,但对于正常的问答,其检测结果表现的不尽人意。可见该组件还需要进一步的训练和优化,才可用于下游应用中。

综合来看,“Llama系统”概念的提出,表明了Meta对“AI Safety & Secuirty”的重视。Meta也通过与NIST和ML Commons等全球组织合作定义了通用标准和最佳实践,进一步提高了AI的安全性。但对于其提出的安全组件是否可以直接集成在LLM上,我们仍需保持谨慎的态度,同时,不同组件间需要通过科学合理的组合,才能在下游应用中更好地规避潜在的安全隐患。

总结

### 文章总结:腾讯朱雀实验室对Llama 3.1安全性对抗分析
近期,腾讯朱雀实验室深入解析了刚刚发布的Llama 3.1版本的安全性,特别是在Meta“Llama系统”概念框架下新增的三大安全组件——Llama Guard 3、Prompt Guard和CYBERSECEVAL 3。
#### 1. Llama Guard 3
- **作为升级版本**,Llama Guard 3在检测违规内容、网络攻击及防止恶意代码执行方面均进行了优化。
- **支持多语言**:新增意大利语、法语等,共支持8种语言,上下文窗口扩展至128k。
- **风险分类广泛**:从之前的11类扩展至14类,增强了对潜在危害的识别能力。
#### 2. Prompt Guard
- **保护应用安全**:专门用于防止LLM集成的应用程序受到恶意提示侵害,确保系统安全与完整性。
- **功能细节**:通过审查提示内容安全性,识别提示词注入和越狱风险。但在白样本集处理中,表现出较高的误报率(86.4%),需进一步训练优化。
#### 3. CYBERSECEVAL 3
- **全面评估基准**:评估LLM的网络安全风险和能力,涵盖自动化社会工程、手动及自动化攻击性网络操作等多个方面。
- **测试结果**:Llama 3 405B模型在钓鱼攻击中说服能力为“中等”至“差”,不能显著提升攻击者效率,且仅能完成部分低复杂度网络操作。
#### 4. 实战验证
- **腾讯朱雀实验室测试**:
- **Llama3.1 + Llama Guard 3**组合拦截率达到99.04%,较上一版本提升0.58%。
- **Prompt Guard**在越狱检测中准确率88.2%,但对正常对话存在高误报率。
#### 综合评价
- Meta通过“Llama系统”概念及与全球组织合作,彰显了对AI安全与信任的高度重视。
- 尽管新增安全组件在提升安全性上有所贡献,但其集成效果及应用仍需谨慎评估,并通过科学合理的组合来规避隐患。
此次分析不仅为Llama 3.1的安全性提供了重要洞见,也为未来AI系统的安全发展指明了方向。

更新时间 2024-07-28