7 月 23 日消息,Meta 今晚正式发布llama3.1,提供 8B、70B 及 405B 参数版本。
Meta 称 4050 亿参数的 Llama 3.1-405B 在常识、可引导性、数学、工具使用和多语言翻译等一系列任务中,可与 GPT-4、GPT-4o、Claude 3.5 Sonnet 等领先的闭源模型相媲美。
那我们可以在自己的电脑上本地化的部署一个模型测试使用,具体的电脑配置的话,因为咱们部署只是推理,基本普通电脑都可以部署,大家预留好硬盘空间,估计在4.7G左右,下面是具体的操作过程。
1、下载安装程序
官网下载地址: https://ollama.com/download
我的电脑是windows,所以下载对应的版本即可,安装包是299M
2、开始安装
下载后点击安装程序即可,默认安装到C盘,安装完成后会弹出powershell的运行窗口
如果没有弹出窗口,则到安装目录去,按住shift+鼠标右键,点击在此处打开Powershell窗口
程序会默认将大模型的数据包下载到C盘,如果大家的C盘空间不是那么富裕,可以修改具体的位置
2.1 windows系统左下角的搜索框里搜索 “高级系统设置”
2.2点击 “环境变量”
2.3 点击新建变量输入变量名“OLLAMA_MODELS” 和变量值(也就是要保存的具体位置,这里保存到了D盘) ,然后点击确定就可以修改保存位置了,然后把模型重启在打开,就可以了。
下载大模型,在窗口里输入运行命令:
ollama run llama3.1
程序会自动下载Llama3.1的模型文件,默认是8B,也就80亿参数版本,个人电脑完全可以运行。
看网速情况,基本上可以满速下载。
3、 测试
打开程序powershell窗口,激活大模型,就可以对话了
4、 部署WebUI
默认是powershell窗口,不太方便使用,因此我们需要部署一个简易的交互窗口,窗口输入如下两个命令即可。
python -m pip install ollama_gui
python -m ollama_gui
第二个命令完成就会弹出一个交互窗口了。可以进行简单的测试和使用了。
总结
**Meta发布Llama 3.1,挑战GPT-4等领先模型**Meta公司在7月23日正式推出了其最新的人工智能大模型Llama 3.1,提供了包括8B、70B及405B在内的多种参数版本,以满足不同用户的需求。尤为引人注目的是,拥有4050亿参数的Llama 3.1-405B版本,在常识理解、可引导性、数学能力、工具使用以及多语言翻译等多个领域展现出与GPT-4、GPT-4o、Claude 3.5 Sonnet等顶尖闭源模型相媲美的性能。
**本地化部署指南:轻松上手Llama 3.1**
为了让更多用户能够亲身体验Llama 3.1的强大功能,Meta还提供了详细的本地化部署指南,使得普通电脑用户也能轻松部署并测试这一模型。以下是具体的部署步骤:
1. **下载安装程序**:
- 访问Meta官方下载地址:[https://ollama.com/download](https://ollama.com/download),根据操作系统(如Windows)下载对应的安装包,大小约为299MB。
2. **安装过程**:
- 下载完成后,双击安装程序进行安装。安装过程中,程序会默认将数据包下载到C盘,但用户可以通过修改环境变量的方式更改存储位置,以避免C盘空间不足的问题。
- 修改环境变量的步骤包括:在Windows系统中搜索“高级系统设置”,点击“环境变量”,新建名为“OLLAMA_MODELS”的变量,并设置其值为希望保存数据包的具体路径(如D盘)。
3. **下载并运行Llama 3.1模型**:
- 在PowerShell窗口中输入`ollama run llama3.1`命令,程序将自动下载并运行Llama 3.1的8B(80亿参数)版本,该版本对个人电脑友好,下载速度取决于网络状况。
4. **测试与交互**:
- 下载并激活模型后,用户即可在PowerShell窗口中与Llama 3.1进行对话测试。
- 为提升使用体验,用户还可以选择部署WebUI(图形用户界面),通过执行`python -m pip install ollama_gui`和`python -m ollama_gui`命令,即可弹出一个简易的交互窗口,方便进行更直观的测试和使用。
通过以上步骤,即便是普通电脑用户也能轻松部署并体验Meta的Llama 3.1大模型,感受其在多个领域的卓越表现。