Meta 最近发布的新法学硕士 Llama 3 在人工智能领域引起了轰动。例如,请查看我对下面型号的 70B 版本的评论和测试。
在我的测试中,Llama 3 令人印象深刻,但它们是使用聊天界面进行的。如果您想对此模型进行编程以执行有用的任务或使用 Python 创建您自己的模型聊天界面,该怎么办?
本文将向您准确展示如何使用 Ollama 来做到这一点。如果您不知道 Ollama 是什么,这是一个允许您在本地下载 Llama 3 等开源模型的网站。下载后,您可以随意使用它们、对它们进行编程、与它们聊天、更改它们以满足您的要求等等……
使用 Ollama 访问模型
我不会介绍如何访问 Ollama 和下载模型,而是将您引导至我之前写的一篇文章,其中详细介绍了所有这些内容,因此请在返回此处之前先查看该文章。
自从我写了原始文章以来,Ollama 引入的一项变化是,您现在可以在 Windows 上下载和使用 Ollama,而不仅仅是 Linux
将 Ollama 成功下载到本地系统后,您就可以继续。
设置开发环境
与往常一样,在编码时,我主张设置一个单独的 Python 环境来完成所有工作。我使用 conda 来达到这个目的,但使用任何适合的方法。
如果您想走 conda 路线但尚未安装,则必须先安装 Miniconda(推荐)或 Anaconda。
#create our test environment
conda create -n llama3_test python=3.11 -y
环境创建完成后,使用命令切换到它activate,然后我们就可以ins