文末会附带整合包地址和个人整合效果很好的一些大模型。
首先先确定几种情况
1.随便玩玩,本地机器显卡比较好(最好2080及以上,显存最好大于8g)
2.随便玩玩,本地显卡不行,使用云端部署
3.就是想体验下全部自己部署
前两者已经无限趋近傻瓜包了,本地有秋叶的整合包(百度网盘下载速度有点难受),各种云平台也都有了sd的镜像。
第三种这个么,大佬研究底层的不会来看我的文章。来看的我就理解为想折腾下吧。
1.首先sd webui是github的一个开源项目,通过git clone或者下载压缩包。 git地址:GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UIx
2.下载好后,需要配置好环境,即python3.10..6,git,以及显卡对应的cuda
cuda下载地址:
CUDA Toolkit Archive | NVIDIA Developer
3.上述安装好后执行pip install代码,等待下载依赖完毕。此步骤建议科学上网或者使用国内镜像,减少因网络错误产生的问题,执行代码:
pip install -r requirements.txt
如果机器ok,不建议使用xformers,这个东西大概可以理解为通过内存缓解显存不足的压力,效果是有的。但问题就是一旦装了这个东西,环境的问题就会很多,因为他对各个依赖的版本都有严格要求。
4.此时,下载一个大模型。这类文件大多数是2-7GB大小,后缀一般为ckpt和safetensors。 然后将下载好的文件放入stable-diffusion-webui-master\models\Stable-diffusion目录下。
5.然后命令行执行
"COMMANDLINE_ARGS='--medvram --opt-split-attention --port 6007 --no-half-vae' REQS_FILE='requirements.txt' python launch.py"
或者项目下,编辑webui-user.bat文件,将COMMANDLINE_ARGS内容改为'--medvram --opt-split-attention --port 6007 --no-half-vae'并保存,然后双击执行。
此处如果报显存不足的问题,可以额外添加--lowvram参数来启动服务,但会大幅降低图片生成速度。
教程看着可能和其他人比很简略,但其实sdwebui已经算是很友善了,基本上是装了python和git就能走下去。 遇到的大多数问题也是环境问题。
再次提醒,python版本选择3.10.6。 cuda安装正确版本,这两步正确,就避免掉了大多数人的70%的问题。
资源使用夸克储存,常态下下载速度要比百度快很多,新用户使用我分享的链接可以获得1T的空间(正常下载注册没有哦)
模型与整合包下载:
「秋叶包」,复制整段内容,打开最新版「夸克APP」即可获取。
无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
/!a93d31L4LB!:/
链接:https://pan.quark.cn/s/51cda4e66f2d
好用的大模型:
「大模型」,复制整段内容,打开最新版「夸克APP」即可获取。
无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
/~331d31L4Ko~:/
链接:https://pan.quark.cn/s/21697631e478