当前位置:AIGC资讯 > AIGC > 正文

Nvidia 和 Mistral AI 的超精确小语言模型适用于笔记本电脑和 PC

Nvidia 和 Mistral AI 发布了一款新型的小型语言模型,据称该模型在小体积下依然具有「最先进」的准确性。该模型名为 Mistral-NemMo-Minitron 8B,是 NeMo 12B 的迷你版本,参数量从 120 亿缩减到了 80 亿。

据 Nvidia 深度学习研究副总裁 Bryan Catanzaro 在博客文章中介绍,这款 80 亿参数的小型语言模型通过两种不同的 AI 优化方法实现了规模缩减。开发团队使用了结合剪枝和蒸馏的技术。「剪枝通过去除对准确性贡献最小的模型权重来缩小神经网络的规模。蒸馏过程中,团队在一个较小的数据集上重新训练了这个经过剪枝的模型,从而大幅提高了因剪枝导致的准确性下降。」

这些优化使得开发人员能够在「原始数据集的一小部分」上训练优化后的语言模型,从而在计算成本上节省高达 40 倍。通常情况下,AI 模型需要在模型规模和准确性之间进行权衡,但通过 Nvidia 和 Mistral AI 的新剪枝和蒸馏技术,语言模型可以同时兼顾这两者。

配备了这些增强功能的 Mistral-NeMo-Minitron 8B 据称在九项同类规模的语言驱动 AI 基准测试中表现出色。所节省的计算资源足以让笔记本电脑和工作站 PC 本地运行 Minitron 8B,使其比云服务更快且更安全。

Nvidia 围绕消费者级计算硬件设计了 Minitron 8B。该语言模型被封装为 Nvidia NIM 微服务,并针对低延迟进行了优化,以提高响应速度。Nvidia 通过其定制模型服务 AI Foundry,将 Minitron 8B 调整为能够在低配置设备(如智能手机)上运行。尽管性能和准确性可能略有下降,但 Nvidia 表示该模型仍然是高准确性的语言模型,并且只需极少的训练数据和计算资源。

剪枝和蒸馏技术似乎是人工智能性能优化的下一前沿。理论上,开发者可以将这些优化技术应用于所有现有的语言模型,从而显著提升整体性能,包括那些只能由 AI 加速服务器群组运行的大型语言模型。

总结

**总结**:
Nvidia与Mistral AI联合发布了名为Mistral-NeMo-Minitron 8B的小型语言模型,该模型是NeMo 12B的精简版,参数量从120亿缩减至80亿,同时保持了高度的准确性。这一成就得益于先进的剪枝和蒸馏技术,这些技术不仅缩小了模型规模,还通过重新训练剪枝后的模型在较小数据集上显著恢复了准确性。相比传统AI模型,Minitron 8B在计算成本上降低了高达40倍,使得其能在笔记本电脑、工作站PC甚至智能手机等低配置设备上高效运行,提供了更快且更安全的语言处理能力。此外,Minitron 8B被封装为Nvidia NIM微服务,针对低延迟进行了优化,进一步提升了响应速度。剪枝和蒸馏技术的广泛应用前景也被看好,有望成为未来AI性能优化的重要手段。

更新时间 2024-08-24