当前位置:AIGC资讯 > AIGC > 正文

本地搭建Stable Diffusion,文生图再也不用求别人了!

前言

本地搭建Stable Diffusion,文生图再也不用求别人了

1. 简介

Stable Diffusion 是一种深度学习模型,用于生成高质量的图像。它基于一种名为扩散过程的生成方法,能够在给定条件的情况下生成具有丰富细节的图像。

看看本文的搭建步骤,成功部署 Stable Diffusion 模型,文生图从此不求人,不用找各种代理和第三方付费的资源了。

2. SD,启动!

(SD的提示词仅支持英文,用中文亲测了一点也不准确)

下面是同样的中文测试结果(中文提示词跑出来的过于恐怖奇葩,仅供图一乐):

我把启动和效果,放到了最前面,方便大家看看要不要继续看后面的详细部署的过程。

这是我针对自己电脑多次踩坑后测试出来的可启动的配置

python.exe D:\AI\stable-diffusion-webui-1.8.0\webui.py --opt-split-attention --enable-insecure-extension-access

亲测SD对于低显存还是比较友好的,像我这个机器,不知道为什么,就是不适用显卡进行计算,把我的内存都占满了。

看看哈,实际测试的结果,GPU只给我占了1G多,峰值也就不到3G;而内存给我快干爆了。

相对来说,执行计算也不是很慢,基本半分钟一张图吧。

3. 环境准备

在开始搭建 Stable Diffusion 模型之前,请确保您的计算机满足以下要求:

• 操作系统:我是Windows10,理论上Linux之类的应该好点儿

• GPU:NVIDIA GPU(本机是NVIDIA 1080 6G的老古董,最好是整个4090啊)

• CUDA:12.0 或更高版本

• cuDNN:11.0 或更高版本

• Python:3.8 或更高版本

• PyTorch:2.0 或更高版本

4. 下载代码

首先,把stable-diffusion-webui的代码下载下来

解压完成后,安装对应的依赖

5. 安装依赖项

接下来,安装 Stable Diffusion Webui中模型所需的依赖项。在代码仓库的根目录下,执行以下命令:

pip install -r requirements.txt

6. 下载预训练模型

模型的下载,是SD部署成功最关键的核心,我因为模型的问题,整了好久都没整出来,如果遇到错误,还是多百度百度。

Stable Diffusion 模型提供了预训练的权重,可以从官方提供的链接下载。下载完成后,将权重文件放置在代码仓库的 models\Stable-diffusion 目录下。

在我国的话还是直接从modelscope下载吧;有科学上网的话,也可以从huggingface官网或者其他第三方网站下载:https://civitai.com/

我是从这下载的

from modelscope import snapshot_download     model_dir = snapshot_download('AI-ModelScope/clip-vit-large-patch14')

7. 生成图像

打开网页,默认的模型还是差强人意,可以下载第三方的模型再试试

默认的模型生成的图像

第三方模型生成的图像,可以说,相当逼真了。

这里直接将该软件分享出来给大家吧~

1.stable diffusion安装包

随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。

最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本。

2.stable diffusion视频合集

我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。

3.stable diffusion模型下载

stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

4.stable diffusion提示词

提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

5.SD从0到落地实战演练

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。

这份完整版的stable diffusion资料我已经打包好,需要的点击下方插件,即可前往免费领取!

总结

### 文章总结:本地搭建Stable Diffusion实现文生图
#### 前言
本文介绍了如何在本地搭建Stable Diffusion深度学习模型,实现高质量的图像生成,从而摆脱对第三方付费资源的依赖。
#### 1. 简介
- **Stable Diffusion**:一种基于扩散过程的深度学习模型,用于生成高质量图像。
- **目标**:通过本文的搭建步骤,成功部署Stable Diffusion模型,实现自主文生图。
#### 2. SD启动体验
- **提示词**:SD仅支持英文提示词,中文测试效果不准确。
- **配置与效果**:展示了可启动的配置及实际测试效果,发现对低显存友好但内存占用高,生成速度较快。
#### 3. 环境准备
- **操作系统**:Windows 10(推荐Linux)
- **GPU**:NVIDIA GPU(推荐4090)
- **CUDA**:12.0或更高
- **cuDNN**:11.0或更高
- **Python**:3.8或更高
- **PyTorch**:2.0或更高
#### 4. 下载代码
- 下载`stable-diffusion-webui`代码并解压,安装对应依赖。
#### 5. 安装依赖项
- 在代码仓库根目录下执行`pip install -r requirements.txt`安装依赖。
#### 6. 下载预训练模型
- 从官方或第三方网站下载Stable Diffusion预训练模型,并放置在指定目录下。
- 提供了使用`modelscope`下载模型的示例代码。
#### 7. 生成图像
- 打开网页界面,使用默认或第三方模型生成图像。
- 展示了默认模型和第三方模型生成的图像效果对比,第三方模型生成的图像更加逼真。
#### 附加资源分享
- **Stable Diffusion安装包**:提供最新版本的安装包,支持多种显卡和操作系统。
- **视频合集**:提供视频教程,帮助初学者快速入门Stable Diffusion。
- **模型下载**:介绍如何下载和训练模型,以优化图像生成效果。
- **提示词手册**:提供提示词手册,帮助用户更好地构建文本到图像的模型解释。
- **实战演练**:提供从0到落地的实战演练资料,帮助用户快速成为Stable Diffusion大神。
通过本文的详细步骤和附加资源,用户可以轻松在本地搭建Stable Diffusion模型,实现高质量的图像生成,满足各种创意和工作需求。

更新时间 2024-09-05