目录
第 1 步:下载模型
 第 2 步:安装依赖
 第 3 步:编译 LLaMA CPP
 第 4 步:转换模型
 Step5:运行模型
语言模型大战
随着人们对人工智能及其在日常生活中的应用越来越感兴趣,Meta 的 LLaMA、OpenAI 的 GPT-3 和 Microsoft 的 Kosmos-1 等众多示例模型正在加入大型语言模型 (LLM) 的行列。此类模型的唯一问题是您无法在本地运行这些模型。到现在为止。感谢Georgi Gerganov和他的llama.cpp项目,可以在没有专用 GPU 的情况下在单台计算机上运行 Meta 的 LLaMA。
在 M1 Mac 上本地运行 LLaMA 涉及多个步骤。我不确定其他平台或其他操作系统,因此在本文中我们只关注上述组合。
第 1 步:下载模型
存储库中打开了一个 PR,它描述了一种替代方式(
https://github.com/facebookresearch/llama/pull/73
无论如何,在你下载了模型(或者更像模型,因为文件夹中有几种不同类型的模型)之后你应该有这样的东西:
❯ exa --tree
.
├── 7B
│  ├── checklist.chk
│  ├── consolidated.00.pth
│  └── params.json
├── 13B
│  ├── checklist.chk
│  ├── consolidated.00.pth
│  ├── consolidated.01.pth
│  └── params.json
├── 30B
│  ├── checklist.chk
│  ├── con