当前位置:AIGC资讯 > AIGC > 正文

谷歌最强轻量级开源大模型Gemma:小尺寸可商用,性能超越Llama-2,个人PC就能用

前言

谷歌近日发布了其最新的轻量级、开源AI模型——Gemma,这一举措无疑在AI领域引起了广泛的关注。不同于其他闭源大模型,Gemma的推出标志着谷歌在开放模型领域的重要一步,意图通过开放、共享的方式,加速AI技术的普及和应用。

Gemma模型概述

Gemma是一个轻量级的模型,拥有20亿和70亿两种参数规模的版本,旨在提供给开发人员和研究人员更易访问和使用的AI工具。与谷歌先前的Gemini模型相比,Gemma可视为其更小、更轻的版本,专门设计用于在个人PC上本地运行,降低了使用AI模型的门槛。

从名称上来看,最新推出的 Gemma 和此前 Google 的 Gemini 还有点傻傻分不清。对此,Google 也在官宣公告中解释称,Gemma 设计的灵感就是来源于 Gemini,拉丁语 Gemma,有“宝石”之意。二者之间稍有不同的是:

可以将 Gemma 视为 Gemini 的更小、更轻的版本。

Gemma 的设计目的是让开发人员和研究人员更容易访问和使用,而 Gemini 的设计目的是用于更复杂的任务。

两种型号均可免费使用

整体来看,Gemma 是由 Google DeepMind 和其他 Google AI 团队共同开发而成,采用与 Gemini 模型相同的研究和技术,建立在序列模型、Transformer、基于神经网络的深度学习方法和分布式系统上大规模训练技术至上。模型训练的上下文长度为 8192 个 token。

Huggingface模型下载:https://huggingface.co/google/gemma-7b

AI快站模型免费加速下载:https://aifasthub.com/models/google/gemma-7b

技术特点和创新

Gemma采用了序列模型、Transformer架构,以及基于神经网络的深度学习方法,通过大规模分布式系统进行训练。特别值得一提的是,Gemma在训练过程中引入了多种创新技术和方法,如自动化技术过滤训练集中的敏感数据,以及大量的微调和人类反馈强化学习(RLHF),确保模型的安全可靠。

性能与应用

Gemma模型在多个基准测试中展现了出色的性能,不仅在其规模上实现了同类最佳的性能,甚至在某些任务上超越了规模更大的模型。这一性能的提升,使Gemma在数学、Python代码生成、常识和常识推理等任务上具有显著的应用潜力。谷歌声称,Gemma 模型18个语言理解、推理、数学等关键基准测试中,有11个测试分数超越了Meta Llama-2等更大参数的开源模型。平均分数方面,Gemma -7B 的基准测试平均分高达56.4,远超过Llama-13B(52.2)、Mistral-7B(54.0),成为目前全球最强大的开源模型。

Gemma(7B)与 LLaMA 2(7B)、LLaMA 2(13B)和 Mistral(7B)在问答、推理、数学和科学、编码等任务上的性能比较。可以看到,Gemma(7B)表现出了优势(除了在问答任务上弱于 LLaMA 2(13B))。

开放模型的意义

Gemma模型的开放,体现了谷歌在推动AI技术开放共享方面的决心。开放模型使得更多的开发者、研究人员能够访问到先进的AI技术,加速了AI技术的创新和应用。同时,谷歌也提供了一套负责任的生成式人工智能工具包,引导开发者和研究人员负责任地使用AI技术。

结论

Gemma模型的发布,不仅是谷歌在AI领域的又一重要贡献,也是开放式AI发展的一个里程碑。通过提供轻量级、高性能且易于访问的开放模型,Gemma有望成为推动AI技术普及和应用的重要力量。随着AI技术的不断发展,开放、共享的理念将更加重要,Gemma模型的成功推出,无疑为AI领域的未来发展提供了新的可能。

模型下载

Huggingface模型下载

https://huggingface.co/google/gemma-2b

https://huggingface.co/google/gemma-7b

AI快站模型免费加速下载

https://aifasthub.com/models/google/gemma-2b

https://aifasthub.com/models/google/gemma-7b

更新时间 2024-03-10