指示:
现在您可以在计算机本地运行 ChatGPT 和 LLaMA-2。Meta刚刚发布了这个拥有700亿参数的模型,比任何其他Open模型都要好,甚至击败了Falcon 40B!
为此,您需要打开终端,转到项目文件夹,然后 git clone llama.cpp 项目
$ git clone https://github.com/ggerganov/llama.cpp
现在进入该文件夹并使用 make 构建项目:
$ cd llama.cpp
$ make
然后您需要从 Meta 网站请求访问该模型,并接受使用它的条款和条件,速度非常快
收到接受电子邮件后,安装 git-lfs 并将 llama-2–13b-chat 模型从 Hugging Face 下载到本地 llama.cpp/models 文件夹
$ brew install git-lfs
$ git-lfs install
$ cd ./models
$ git clone https://huggingface.co/meta-llama/Llama-2-13b-chat
现在确保您已经安装了 3.10 版本的 python,然后创建一个虚拟环境,激活它并使用 pip 安装所需的 python 库
$ cd ..
$ python3 — version
$ python3 -m venv venv
$ source venv/bin/activate
$ pip3 install -r requirements.txt
为了在我们的小型笔记本电脑上运行这个巨大的 LLM,我们需要使用以下命令