当前位置:AIGC资讯 > AIGC > 正文

AI绘画部署及模型推荐和下载

文末会附带整合包地址和个人整合效果很好的一些大模型。

首先先确定几种情况

1.随便玩玩,本地机器显卡比较好(最好2080及以上,显存最好大于8g)

2.随便玩玩,本地显卡不行,使用云端部署

3.就是想体验下全部自己部署

前两者已经无限趋近傻瓜包了,本地有秋叶的整合包(百度网盘下载速度有点难受),各种云平台也都有了sd的镜像。

第三种这个么,大佬研究底层的不会来看我的文章。来看的我就理解为想折腾下吧。

1.首先sd webui是github的一个开源项目,通过git clone或者下载压缩包。 git地址:GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UIx

2.下载好后,需要配置好环境,即python3.10..6,git,以及显卡对应的cuda

cuda下载地址:

CUDA Toolkit Archive | NVIDIA Developer

3.上述安装好后执行pip install代码,等待下载依赖完毕。此步骤建议科学上网或者使用国内镜像,减少因网络错误产生的问题,执行代码:

pip install -r requirements.txt

如果机器ok,不建议使用xformers,这个东西大概可以理解为通过内存缓解显存不足的压力,效果是有的。但问题就是一旦装了这个东西,环境的问题就会很多,因为他对各个依赖的版本都有严格要求。

4.此时,下载一个大模型。这类文件大多数是2-7GB大小,后缀一般为ckpt和safetensors。 然后将下载好的文件放入stable-diffusion-webui-master\models\Stable-diffusion目录下。

5.然后命令行执行

"COMMANDLINE_ARGS='--medvram --opt-split-attention --port 6007 --no-half-vae' REQS_FILE='requirements.txt' python launch.py"

或者项目下,编辑webui-user.bat文件,将COMMANDLINE_ARGS内容改为'--medvram --opt-split-attention --port 6007 --no-half-vae'并保存,然后双击执行。

此处如果报显存不足的问题,可以额外添加--lowvram参数来启动服务,但会大幅降低图片生成速度。

教程看着可能和其他人比很简略,但其实sdwebui已经算是很友善了,基本上是装了python和git就能走下去。 遇到的大多数问题也是环境问题。

再次提醒,python版本选择3.10.6。 cuda安装正确版本,这两步正确,就避免掉了大多数人的70%的问题。

资源使用夸克储存,常态下下载速度要比百度快很多,新用户使用我分享的链接可以获得1T的空间(正常下载注册没有哦)

模型与整合包下载:

「秋叶包」,复制整段内容,打开最新版「夸克APP」即可获取。
无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
/!a93d31L4LB!:/
链接:https://pan.quark.cn/s/51cda4e66f2d

好用的大模型:

「大模型」,复制整段内容,打开最新版「夸克APP」即可获取。
无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
/~331d31L4Ko~:/
链接:https://pan.quark.cn/s/21697631e478

更新时间 2023-12-10