当前位置:AIGC资讯 > AIGC > 正文

本地部署Perplexity 克隆:使用Llama 3.1实现高效搜索

最近,OpenAI宣布推出Search GPT,这基本上是Perplexity的改版,但直接由OpenAI开发。这让我非常高兴,因为与其让第三方使用他们的模型并提供封装服务,不如他们自己来做。我一直不喜欢Perplexity,因为他们声称他们做了很多事情来生成结果,因此向用户收费20美元,但实际上他们只是将GPT-4与Google搜索结果结合起来。每当我制作关于本地替代品的视频时,总有一些被洗脑的人会说“没有什么能打败Perplexity”,但现在OpenAI自己做了这件事,我至少感到很开心,但我打赌Perplexity的投资者现在不会高兴。

今天的视频不是关于这个的。今天我要告诉你如何在你的电脑上本地设置一个Perplexity克隆,使用的是Llama 3.1。这非常类似于Perplexity,而且完全免费和本地化。那么我会用什么来制作它呢?我会使用# Perplexica来实现这一点,设置起来超级简单,我们可以将其与ollama和Groq集成起来。我将向你展示如何使用Llama 3.1 8B模型和Gro的70B模型进行配置。最后我还会告诉你如何使用405B模型。

第一步:安装ollama

首先,打开ollama,点击下载按钮,选择你的操作系统并进行安装。安装完成后,前往模型页面,选择Llama 3.1并复制安装命令,将其粘贴到你的终端,模型将开始安装。安装完成后,你会在终端中看到这个聊天界面,发送一条消息并检查是否有效。

第二步:安装embedding model

我们还需要在ollama中安装一个embedding model。。这将把嵌入模型安装到你的电脑上。完成后,前往Docker,下载Docker并按照屏幕上的说明进行安装。我们需要Docker来安装Perplexica。

第三步:克隆Perplex仓库

完成Docker安装后,克隆 Perplexica 并按照readme文档进行配置。,向下滚动并复制这个命令。现在打开你的终端并将其粘贴进去,这将把仓库克隆到你的电脑上。现在在VS Code中打开克隆的文件夹,将sample.config.toml文件重命名为config.toml

git clone https://github.com/ItzCrazyKns/Perplexica.git

Rename the sample.config.toml file to config.toml

docker compose up -d

第四步:创建Docker容器

完成重命名后,回到终端,现在CD进入克隆的文件夹并运行这个命令,这将为你创建一个Docker容器并启动它。完成后,你可以在浏览器中打开端口3000,你会看到这个页面。你会看到一个错误,不用担心,只需进入设置选项并将这个URL添加到Al API基URL中。完成后保存,现在你会看到这个页面正常打开了。

第五步:配置Perplex

但我们仍然不能使用它,所以进入设置选项,在模型中选择Llama 3.1,在嵌入提供商中选择Ollama,然后选择刚刚安装的embedding模型。一旦完成,我们现在可以使用它了。现在发送一条消息,你会看到它正常工作。你会得到文章、图片、视频等,这非常酷。你还可以在这里询问后续问题,这也非常酷。

使用Groq进行配置

如果你不想本地运行LLM但仍想使用Perplex,你可以使用Groq。Groq添加了Llama 3.1 8B和70B模型,你可以通过API免费使用它,但会有一点速率限制。要与Gro进行配置,只需打开Groq Cloud,注册一个帐户,在API密钥选项中创建一个API密钥并复制它。现在回到Perplex,打开设置并输入API密钥,保存它,重新打开设置并将提供商更改为Groq,现在在这里选择Llama 3.1模型,保存它,现在你可以开始使用Groq了,你会看到与Perplexity相同的速度,但质量极高且免费。

使用Together AI进行配置

接下来是如何使用405B模型来设置它。我将使用Together AI,因为他们提供一些免费积分,之前是25美元的积分,但现在他们减少到了5美元,我觉得这还可以,因为你仍然可以进行大约100次请求。搜索Together AI,注册并前往设置选项,复制你的API密钥。现在回到Perplex,点击设置并将提供商更改为自定义OpenAI,现在输入这个URL作为基本URL和这个模型名称,并在这里输入你的API密钥。完成后保存,现在你可以开始使用Llama 3.1 405B,这显然也很酷。

总结

以上就是如何使用Llama 3.1完全免费和本地化地设置你自己的Perplexity克隆的步骤。因为最终它只是一个LLM和Google搜索API。此外,它使用CRX NG作为搜索引擎,这也是开源的并在你安装时直接安装,所以你不需要任何API来进行搜索,这也非常酷。

总结

**总结文章:如何在本地利用Llama 3.1创建一个免费的Perplexity克隆**
---
OpenAI最近推出了Search GPT,这对原先第三方如Perplexity的服务模式构成了挑战。Perplexity虽号称通过复杂机制生成结果却最终只是GPT与Google搜索的结合,并以高价向用户收费,引发不满。本文则重点介绍了如何免费且本地化地利用Llama 3.1模型,通过#Perlplexica工具,创建一个类似Perplexity但完全免费的服务。
**步骤概览**:
1. **安装Ollama**:从Ollama官网下载适用于您操作系统的版本,并安装Llama 3.1模型。完成后,在终端验证模型是否工作正常。
2. **安装Embedding Model**:为确保搜索功能的高效性,还需在Ollama中安装一个嵌入模型,并通过Docker安装Perplexica所需的环境。
3. **克隆Perplexica仓库**:在GitHub上找到Perplexica的仓库,使用Git将其克隆到本地。在VS Code中调整配置文件,准备运行。
4. **创建Docker容器**:通过Docker命令为Perplexica创建一个容器并启动,随后在浏览器中检查服务是否正常启动。
5. **配置Perplex**:在服务设置中,选定Llama 3.1模型和使用Ollama作为嵌入提供商,完成最终配置,即可开始使用。
对于进阶用户,还可以选择Groq或Together AI等不同的LLM服务提供商:
- **Groq配置**:注册Groq账户,获取API密钥,并结合Perplexica使用,以访问免费但有速率限制的Llama模型。
- **Together AI配置**:注册并获取少量免费积分,用于在Perplexica中接入Llama 3.1的更高级别(如405B)模型,虽然积分有限但其性能和自由度更高。
**总结**:本文详细指导了如何通过Llama 3.1构建免费的Perplexity替代品,无需额外的API费用,展现了高度的灵活性和开源魅力。整个流程从安装到配置均简单易懂,适合希望降低使用成本并就近处理AI请求的用户群体。

更新时间 2024-08-11