LlamaGPT一个自托管、离线、类似 ChatGPT 的聊天机器人,由 Llama 2 提供支持。100% 私密,不会有任何数据离开你的设备。
推荐:用 NSDT编辑器 快速搭建可编程3D场景
1、如何安装LlamaGPT
LlamaGPT可以安装在任何x86或arm64系统上。
首先确保你已安装 Docker。然后,克隆此存储库并 进入目录:
git clone https://github.com/getumbrel/llama-gpt.git
cd llama-gpt
现在可以使用以下任何模型运行 LlamaGPT,具体取决于你的硬件:
模型大小 使用的模型 所需的最低 RAM 如何启动 LlamaGPT 7B Nous Hermes Llama 2 7B (GGML q4_0) 8GB docker compose up -d 13B Nous Hermes Llama 2 13B (GGML q4_0) 16GB docker compose -f docker-compose-13b.yml up -d 70B Meta Llama 2 70B Chat (GGML q4_0) 48GB docker compose -f docker-compose-70b.yml up -d可以通过 http://localhost:3000
访问 LlamaGPT。
要停止 LlamaGPT,请运行:
docker compose down
2、基准测试
我们在以下硬件上测试了 LlamaGPT 模型,并使用默认系统提示和用户提示:“宇宙如何膨胀?” 温度设置为 0 时保证确定性结果。 生成速度是前 10 代的平均值。
Nous Hermes Llama 2 7B (GGML q4_0) 设备 生成速度 M1 Max MacBook Pro (10 64GB RAM) 8.2 令牌/秒 Umbrel Home (16GB RAM) 2.7 令牌/秒 Raspberry Pi 4 (8GB RAM) 0.9 令牌/秒 Nous Hermes Llama 2 13B (GGML q4_0) 设备 生成速度 M1 Max MacBook Pro (64GB RAM) 3.7 令牌/秒 Umbrel Home (16GB RAM) 1.5 令牌/秒 Meta Llama 2 70B 聊天 (GGML q4_0)不幸的是,我们还没有这个模型的任何基准。
原文链接:LlamaGPT自托管chatbot — BimAnt