当前位置:AIGC资讯 > AIGC > 正文

Stable Diffusion安装和快速入门

文章目录

前言 环境要求 下载地址 安装Stable Diffusion 报错解决 下载模型 安装模型 运行 小结

前言

之前一直是用liblib.art这个网站在线生图,但是总归不如在自己电脑上跑好用,于是在我没独显的轻薄本上装了一下试试

真心感谢做这个开源软件的大佬们,做的这么细致,这玩意实在是太好装了,不过还是记录一下省的以后忘了
除去下载耗时,整个过程5分钟就能搞定

环境要求

安装python和git,git我没注意到是干了啥,python是运行环境肯定要有
推荐的是python 3.10.6,我的python3.11.2也能运行

下载地址

https://github.com/AUTOMATIC1111/stable-diffusion-webui

安装Stable Diffusion

解压压缩包之后看到有README和bat,作为程序员,那肯定第一时间看README:


嗯,就是运行那个webui-user.bat
看一眼里面有啥:

就是设置环境变量,然后调用webui.bat,webui.bat是干正事的,内容比较多,这里就不看了

没得显卡,百度了一下,文心一言说需要改两个参数:

set CUDA_VISIBLE_DEVICES=-1
set COMMANDLINE_ARGS= --skip-torch-cuda-test --use-cpu all --no-half --precision full

保存之后直接双击运行webui-user.bat
会自动下载依赖项,和一个1.5的基础模型
完成之后自动打开浏览器访问127.0.0.1:7860端口(下面我这个是开了三次,估计端口号就递增了2到7862了)

报错解决


刚打开的时候可能会报这个错,原因是需要关闭代理

下载模型

就目前我也只是浅尝辄止,不了解C站什么的,直接图省事就从liblib.art网站上下模型了

类型有两种,一种是checkpoint:大模型,体积很大,几GB;
另一种是lora,体积较小,几十到几百兆,类似补丁

安装模型


把下载好的模型放到
stable-diffusion-webui-master\models\Stable-diffusion目录下
点击这里刷新

运行

promt 提示词(你想要什么,比如白发,短裤这种描述)
negative promt 反向提示词(你不想出现什么,比如低质量、手指缺失等等)
这里我简单举个例子:
提示词示例(龙娘)

masterpiece,((best quality)),(ultra-detailed),((an extremely delicate and beautiful)),extremely detailed CG unity 8k wallpaper,simple background,full body,body towards the viewer,handsome,beautiful,wonderful,(a woman with red hair, dragon wings, dragon horns, and white tail stands),body towards the viewer,jacket,Long Legs,solo,serious expression,

负向提示词示例

(worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, bad anatomy,DeepNegative,(fat:1.2),bad anatomy,bad hands, text, error, missing fingers,

sampling steps:采样步数,一般20-30可以比较快看到效果,40~60丰富细节但时间长点,再长不一定获得更好的效果
width和height设置图片的宽度高度像素
CFG scale 提示词相关度,提示词比较少的时候可以调第一点,默认是7,提示词非常丰富的时候可以调到13-21

点击Genrate开始生成

小结

结论就是还是要配台式机 装独立显卡,我这i7-1260P,也不是很差的cpu
就弄个1024*512的图,迭代也不过30步,居然跑了15分钟,麻了,用正经显卡的话可能就几十秒吧

生成的图↓

更新时间 2024-06-07