当前位置:AIGC资讯 > AIGC > 正文

使用本地 LLM 构建 Llama 3.1 8b Streamlit 聊天应用程序:使用 Ollama 的分

介绍

大型语言模型(LLMs)彻底改变了人工智能领域,提供了令人印象深刻的语言理解和生成能力。

本文将指导您构建一个使用本地LLM的Streamlit聊天应用程序,特别是来自Meta的Llama 3.1 8b模型,通过Ollama库进行集成。

前提条件

在我们深入代码之前,请确保您已安装以下内容:

Python Streamlit Ollama

设置 Ollama 和下载 Llama 3.1 8b

首先,您需要安装 Ollama 并下载 Llama 3.1 8b 模型。打开命令行界面并执行以下命令:

创建 Modelfile

要创建一个与您的 Streamlit 应用无缝集成的自定义模型,请按照以下步骤操作:

在您的项目目录中,创建一个名为 Modelfile 的文件,不带任何扩展名。 在文本编辑器中打开 Modelfile,并添加以下内容:
model: llama3.1:8b

此文件指示 Ollama 使用 Llama 3.1 8b 模型。

代码

导入库和设置日志记录

streamlit as st:这导入了 Streamlit,一个用于创建交互式网页应用的库。 ChatMessageOllama:这些是从 llama_index 库中导入的,用于处理聊天消息和与 Llama 模型进行交互。 logging:用于记录信息、警告和错误,有助于调试和跟踪应用程序的行为。 time:这个库用于测量生成响应所需的时间。

初始化聊天记录

st.session_state: 这是一个 Streamlit 特性,允许您在应用的不同运行之间存储变量。在这里,它用于存储聊天记录。 if 语句检查 ‘messages’ 是否已经在 session_state 中。如果没有,它将其初始化为空列表。

流式聊天响应的函数

stream_chat: 此函数处理与 Llama 模型的交互。 Ollama(model=model, request_timeout=120.0): 使用指定的超时初始化 Llama 模型。 llm.stream_chat(messages): 从模型流式传输聊天响应。 response_placeholder = st.empty(): 在 Streamlit 应用中创建一个占位符,以动态更新响应。 for 循环将响应的每一部分附加到最终响应字符串,并更新占位符。 logging.info 记录模型、消息和响应。 except 块捕获并记录在流式传输过程中发生的任何错误。

主要功能

main: 这是设置和运行Streamlit应用的主要功能。

st.title("与LLMs模型聊天"): 设置应用的标题。

model = st.sidebar.selectbox("选择模型", ["mymodel", "llama3.1 8b", "phi3", "mistral"]): 在侧边栏创建一个下拉菜单以选择模型。

if prompt := st.chat_input("你的问题"): 获取用户输入并将其添加到聊天记录中。

for循环显示聊天记录中的每条消息。

if语句检查最后一条消息是否不是来自助手。如果为真,则从模型生成响应。

with st.spinner("正在写入..."): 在生成响应时显示一个加载指示器。

messages = [ChatMessage(role=msg["role"], content=msg["content"]) for msg in st.session_state.messages]: 为Llama模型准备消息。

response_message = stream_chat(model, messages): 调用stream_chat函数以获取模型的响应。

duration = time.time() - start_time: 计算生成响应所需的时间。

response_message_with_duration = f"{response_message}\n\n耗时: {duration:.2f} 秒": 将耗时附加到响应消息中。

st.session_state.messages.append({"role": "assistant", "content": response_message_with_duration}): 将助手的响应添加到聊天记录中。

st.write(f"耗时: {duration:.2f} 秒"): 显示生成响应的耗时。

except块处理生成响应期间的错误并显示错误消息。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

大模型 AI 能干什么? 大模型是怎样获得「智能」的? 用好 AI 的核心心法 大模型应用业务架构 大模型应用技术架构 代码示例:向 GPT-3.5 灌入新知识 提示工程的意义和核心思想 Prompt 典型构成 指令调优方法论 思维链和思维树 Prompt 攻击和防范 …

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

为什么要做 RAG 搭建一个简单的 ChatPDF 检索的基础概念 什么是向量表示(Embeddings) 向量数据库与向量检索 基于向量检索的 RAG 搭建 RAG 系统的扩展知识 混合检索与 RAG-Fusion 简介 向量模型本地部署 …

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

为什么要做 RAG 什么是模型 什么是模型训练 求解器 & 损失函数简介 小实验2:手写一个简单的神经网络并训练它 什么是训练/预训练/微调/轻量化微调 Transformer结构简介 轻量化微调 实验数据集的构建 …

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

硬件选型 带你了解全球大模型 使用国产大模型服务 搭建 OpenAI 代理 热身:基于阿里云 PAI 部署 Stable Diffusion 在本地计算机运行大模型 大模型的私有化部署 基于 vLLM 部署大模型 案例:如何优雅地在阿里云私有部署开源大模型 部署一套开源 LLM 项目 内容安全 互联网信息服务算法备案 …

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

总结

**文章总结:构建使用本地LLM的Streamlit聊天应用程序**
本文详细介绍了如何构建一个基于Meta的Llama 3.1 8b语言模型的Streamlit聊天应用程序,使用Ollama库进行集成。以下是文章内容的总结:
### 一、大型语言模型(LLMs)介绍
- LLMs彻底改变了人工智能领域,提供了卓越的语言理解和生成能力。
- 本文将以Llama 3.1 8b为例,通过Ollama和Streamlit构建聊天应用。
### 二、前提条件
- 确保已安装Python、Streamlit和Ollama。
### 三、设置Ollama和下载Llama 3.1 8b模型
- 通过命令行安装Ollama并下载Llama 3.1 8b模型。
### 四、创建Modelfile
- 在项目目录中创建一个无扩展名的`Modelfile`文件。
- 添加模型指定信息`model: llama3.1:8b`。
### 五、代码实现
#### 1. 导入库和设置日志记录
- 导入Streamlit、ChatMessage、Ollama、logging和时间库。
#### 2. 初始化聊天记录
- 使用Streamlit的`session_state`特性存储聊天记录。
#### 3. 定义流式聊天响应的函数
- 使用`stream_chat`函数处理与Llama模型的交互,并显示响应。
#### 4. 主功能
- 设置Streamlit应用标题和侧边栏的模型选择。
- 捕获用户输入,添加到聊天记录,调用`stream_chat`生成响应。
- 显示响应时长和聊天记录,处理生成响应期间的错误。
### 六、学习大模型AI
作者提到,掌握AI的人将在竞争中获得优势,并分享了免费的学习资料和阶段性学习计划:
#### 第一阶段(10天):初阶应用
- 认识大模型AI,理解其应用和技术架构。
- 学习如何使用提示工程,调优Prompt。
#### 第二阶段(30天):高阶应用
- 学会构造私有知识库,扩展AI能力。
- 开发基于agent的对话机器人,掌握最新技术。
#### 第三阶段(30天):模型训练
- 掌握模型微调、训练及多模态模型技术。
#### 第四阶段(20天):商业闭环
- 部署大模型于云端或本地环境,选择合适项目。
### 七、总结
文章提供了一个全面的指南,从安装设置到代码实现和学习资料,帮助读者构建和使用基于LLMs的Streamlit聊天应用,并提供了深入学习大模型AI的路径。
### 八、免费学习资源
- 提供了AI大模型入门到进阶的免费学习资源,包括思维导图、书籍、视频教程等。
- 强调酬天道勤,鼓励读者努力学习,成为优秀的AI从业者。

更新时间 2024-09-22