当前位置:AIGC资讯 > AIGC > 正文

Meta 的LLaMA是 GPT的竞争对手,如何在 M1 Mac 上使用 LLaMA

目录

第 1 步:下载模型
第 2 步:安装依赖
第 3 步:编译 LLaMA CPP
第 4 步:转换模型
Step5:运行模型

语言模型大战

随着人们对人工智能及其在日常生活中的应用越来越感兴趣,Meta 的 LLaMA、OpenAI 的 GPT-3 和 Microsoft 的 Kosmos-1 等众多示例模型正在加入大型语言模型 (LLM) 的行列。此类模型的唯一问题是您无法在本地运行这些模型。到现在为止。感谢Georgi Gerganov和他的llama.cpp项目,可以在没有专用 GPU 的情况下在单台计算机上运行 Meta 的 LLaMA。

在 M1 Mac 上本地运行 LLaMA 涉及多个步骤。我不确定其他平台或其他操作系统,因此在本文中我们只关注上述组合。

第 1 步:下载模型

存储库中打开了一个 PR,它描述了一种替代方式(

https://github.com/facebookresearch/llama/pull/73

无论如何,在你下载了模型(或者更像模型,因为文件夹中有几种不同类型的模型)之后你应该有这样的东西:

❯ exa --tree
.
├── 7B
│  ├── checklist.chk
│  ├── consolidated.00.pth
│  └── params.json
├── 13B
│  ├── checklist.chk
│  ├── consolidated.00.pth
│  ├── consolidated.01.pth
│  └── params.json
├── 30B
│  ├── checklist.chk
│  ├── con

更新时间 2023-12-06