当前位置:AIGC资讯 > AIGC > 正文

在 Apple Silicon Mac(M1、M2 或 M3)上运行最新 LLM 模型 Meta Llama 3 的分步指南


您是否正在寻找在基于 Apple Silicon 的 Mac 上运行最新 Meta Llama 3 的最简单方法?那么您来对地方了!在本指南中,我将向您展示如何在本地运行这个强大的语言模型,使您能够利用自己机器的资源来实现隐私和离线可用性。本教程将包括在您自己的计算机上设置类似于 ChatGPT 的用户友好界面。

我将保持简单,并为您提供在本地运行它的步骤,包括使用 ChatGPT 等漂亮的 UI。

你需要什么:奥拉马

Ollama 是一款专门设计用于在 macOS 上直接运行 Llama 3、Mistral 和 Gemma 等大型语言模型的设置工具。您可以从下载 Ollama 开始。有关 Ollama 提供的更多详细信息,请查看其 GitHub 存储库:ollama/ollama。

在 macOS 上下载 Olama

https://ollama.com/download

设置完成后,您可以在新的终端会话中运行以下命令以查看它是否已设置并准备就绪

ollama -v

选择您的型号

现在,根据您的 Mac 资源,您可以运行基本的 Meta Llama 3 8B 或 Meta Llama 3 70B,但请记住,您需要足够的内存来在本地运行这些 LLM 模型。我使用 M1 Max 64 GB RAM 测试了 Meta Llama 3 70B,性能相当不错。

要运行 Meta Llama 3 8B,基本上运行以下命令:&#x

更新时间 2024-06-21