前言
注意:
本文讲解的用的是用“整合包”来本地部署安装及使用Stable Diffusion WebUI,你不需要懂太多的计算机知识,而且用整合包对新手也是比较友好的,磁盘需要预留100G~200G空间才能玩。
整合包我会放在文末
前言
本文将基于最新的SD整合包,结合笔者整合的资源,为大家介绍最基础的概念和安装方式。
可以说,从这一天开始,AI绘画,尤其是SD的普及,又得到了更进一步的推动。
Stable Diffusion(SD)是什么
Stable Diffusion是2022年发布的深度学习文本到图像生成模型,它是一种潜在扩散模型,它由创业公司Stability AI与多个学术研究者和非营利组织合作开发。目前的SD的源代码和模型都已经开源,在Github上由AUTOMATIC1111维护了一个完整的项目,正在由全世界的开发者共同维护。由于完整版对网络有一些众所周知的需求,国内有多位开发者维护着一些不同版本的封装包。开源社区为SD的普及做出了难以磨灭的贡献。
SD最大的特征,就是由于其开源的特性,可以在电脑本地上离线运行。可以在大多数配备至少8GB显存的适度GPU的消费级硬件上运行。笔者推荐显存线是12G。
由于AI训练和产出的本质是软硬件结合了的深度学习原理,因此常常会用到英伟达公司的显卡(NVIDIA显卡),以及相关的诸如CUDA、CUDNN,乃至python相关的深度学习组件如xformer、pytorch等,学习AI想要进阶的话非常容易碰到这些需要大量额外学习编程知识的内容,所以非常容易让小伙伴们感到困难。
本文以及整合包都不会涉及到这些内容,会比原版相对来说容易理解,也容易部署得多得多得多。需要整合包的小伙伴扫描👇二维码领取
SD基本概念
大模型:用素材+SD低模(如SD1.5/SD1.4/SD2.1),深度学习之后炼制出的大模型,可以直接用来生图。大模型决定了最终出图的大方向,可以说是一切的底料。多为CKPT/SAFETENSORS扩展名。
VAE:类似滤镜,是对大模型的补充,稳定画面的色彩范围。多为CKPT/SAFETENSORS扩展名。
LoRA:模型插件,是在基于某个大模型的基础上,深度学习之后炼制出的小模型。需要搭配大模型使用,可以在中小范围内影响出图的风格,或是增加大模型所没有的东西。炼制的时候如果基于SD底模,在不同大模型之间更换使用时的通用性会较好。但如果基于特定的大模型,可能会在和该大模型配合时得到针对性的极佳效果。
ControlNet:神级插件,让SD有了眼睛,能够基于现有图片得到诸如线条或景深的信息,再反推用于处理图片。
Stable Diffusion Web-UI(SD-WEBUI):开源大神AUTOMATIC1111基于Stability AI算法制作的开源软件,能够展开浏览器,用图形界面操控SD。
秋叶包:中国大神秋叶开发的整合包。由于WEBUI本身基于GitHub的特性,绝大多数时候的部署都需要极高的网络需求,以及Python环境的需求。使用秋叶整合包,内置了和电脑本身系统隔离的Python环境,以及内置了Git,不需要了解这两个软件就可以运行。可以几乎忽视这样的门槛,让更多人能够享受AI出图。
一、Stable Diffusion 安装
我们可以先安装启动器的运行依赖,并解压秋叶包本体。
第一步:打开“启动器运行依赖-dotnet-6.0.11.exe”来安装。
第二步:解压“sd-webui-aki-v4.zip”。
注意:
当我们解压好启动器本体的时候,暂时还不要启动,先一起把模型安装了。
第三步:导入核心数据。
1、下载“推荐大模型”文件夹中的模型。
2、并把文件夹里的所有模型放在这个目录下:
\sd-webui-aki-v4\models\Stable-diffusion
3、同时,还要下载ControlNet模型。
4、ControlNet模型文件夹里的所有内容,放在这个目录下:
\sd-webui-aki-v4\models\ControlNet
5、最后,需要单独下载推荐LoRA。
6、这些LoRA是笔者为了方便小伙伴们取用改了名的,需要全部放在这个目录下:
sd-webui-aki-v4\extensions\sd-webui-additional-networks\models\lora
7、当大家上手之后就可以参考末尾处这一篇文章,并在【大量模型·LoRA】文件夹中寻找自己想要的LoRA了。
二、Stable Diffusion 使用教程
开启软件运行。
解压并导入完毕上述数据之后,就可以点开启动器了。
1、在安装目录下往下拉,找到这个“A启动器.exe",双击。
2、再点击右下角的一键启动。
3、再让这个界面多跑一会儿。
4、就可以看到它自动在浏览器中打开了一个新的网页,就算是启动成功了。
注意:
有时候会出现警告错误或缺少模块,但是又不会影响正常运行。
如果它没自动打开,可以手工去浏览器输入网址:http://127.0.0.1:7860
5、最终的效果。
例如:输入一个关键词“一个美女”,点击“生成”,结果效果图如下:
这里直接将该软件分享出来给大家吧~
1.stable diffusion安装包
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本。
2.stable diffusion视频合集
我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。
3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。
4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。
5.SD从0到落地实战演练
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。
这份完整版的stable diffusion资料我已经打包好,需要的点击下方插件,即可前往免费领取!
总结
**Stable Diffusion WebUI 本地部署及使用指南总结****前言**
- 本文旨在介绍使用“整合包”来本地部署并使用Stable Diffusion WebUI,适合计算机知识有限的用户。
- 预留100G~200G磁盘空间是必要的。
**Stable Diffusion(SD)简介**
- SD是2022年发布的深度学习模型,能从文本生成图像,开源并由全球开发者共同维护。
- 可在本地离线运行,推荐配置含至少12GB显存的NVIDIA显卡。
- 无需深入学习编程或CUDA等底层技术,本文提供整合包简化部署过程。
**SD基本概念**
- **大模型**:是深度学习后直接用于图像生成的基础,决定出图方向。
- **VAE**:类似滤镜,稳定画面色彩。
- **LoRA**:大模型基础上的小模型插件,影响风格或添加新元素。
- **ControlNet**:基于图片信息的神级插件,提升图片处理能力。
- **SD-WEBUI**:图形界面操作SD的开源软件。
- **秋叶包**:中国开发者秋叶提供的优化整合包,降低部署门槛。
**安装步骤**
1. **安装依赖**:运行“启动器运行依赖-dotnet-6.0.11.exe”。
2. **解压整合包**:“sd-webui-aki-v4.zip”。
3. **导入核心数据**:
- 将“推荐大模型”放入`\sd-webui-aki-v4\models\Stable-diffusion`。
- ControlNet模型放入`\sd-webui-aki-v4\models\ControlNet`。
- LoRA放入`\sd-webui-aki-v4\extensions\sd-webui-additional-networks\models\lora`。
**使用教程**
1. 运行“A启动器.exe”。
2. 点击“一键启动”。
3. 等待软件在浏览器中自动打开(或手动输入`http://127.0.0.1:7860`)。
4. 输入关键词,如“一个美女”,点击“生成”查看效果。
**额外资源**
- **安装包**:适合不同配置的稳定Diffusion版本,包括Mac支持。
- **视频合集**:生动形象的视频教程帮助快速上手。
- **模型下载**:丰富的模型资源,提升生成图像质量。
- **提示词手册**:掌握构建AI绘画的“语言”。
- **实战演练**:系统的实践指南,助力成为SD高手。
**总结**
通过本文和提供的整合包,即使是计算机新手也能轻松上手Stable Diffusion WebUI,享受AI绘画的乐趣并创作出高质量的图像作品。