当前位置:AIGC资讯 > AIGC > 正文

将 Llama 3 与 Ollama 和 Python 结合使用 使用 Ollama API 访问这一领先模型

Meta 最近发布的新法学硕士 Llama 3 在人工智能领域引起了轰动。例如,请查看我对下面型号的 70B 版本的评论和测试。

在我的测试中,Llama 3 令人印象深刻,但它们是使用聊天界面进行的。如果您想对此模型进行编程以执行有用的任务或使用 Python 创建您自己的模型聊天界面,该怎么办?

本文将向您准确展示如何使用 Ollama 来做到这一点。如果您不知道 Ollama 是什么,这是一个允许您在本地下载 Llama 3 等开源模型的网站。下载后,您可以随意使用它们、对它们进行编程、与它们聊天、更改它们以满足您的要求等等……

使用 Ollama 访问模型

我不会介绍如何访问 Ollama 和下载模型,而是将您引导至我之前写的一篇文章,其中详细介绍了所有这些内容,因此请在返回此处之前先查看该文章。

自从我写了原始文章以来,Ollama 引入的一项变化是,您现在可以在 Windows 上下载和使用 Ollama,而不仅仅是 Linux

将 Ollama 成功下载到本地系统后,您就可以继续。

设置开发环境

与往常一样,在编码时,我主张设置一个单独的 Python 环境来完成所有工作。我使用 conda 来达到这个目的,但使用任何适合的方法。

如果您想走 conda 路线但尚未安装,则必须先安装 Miniconda(推荐)或 Anaconda。

#create our test environment
conda create -n llama3_test python=3.11 -y

环境创建完成后,使用命令切换到它activate,然后我们就可以ins

更新时间 2024-06-26