1、下载stable-diffusion-webui
我这里使用的是阿里的oss缓存,可以直接下载
wget https://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/code/stable-diffusion-webui-v1.tar.gz
2、解压
tar -xf stable-diffusion-webui-v1.tar.gz
3、下载config.json
cd stable-diffusion-webui && wget -c http://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/webui_config/config.json
4、下载权重文件
输入ls查看当前命令所在目录
根据当前命令行所在目录修改下载目录
我的如下图所示
wget -P ./models/Stable-diffusion https://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/sd_models/Counterfeit-V2.5_fp16.safetensors
wget -P ./models/VAE https://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/vae_models/Counterfeit-V2.5.vae.pt
wget -P ./embeddings https://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/embedding/EasyNegative.safetensors
上面三个都是放在项目目录下
下面这两个放在你的.cache目录里
wget -P /home/ad_1/.cache/clip https://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/clip/ViT-L-14.pt
wget -P /home/ad_1/.cache/huggingface/hub https://pai-vision-data-sh.oss-cn-shanghai.aliyuncs.com/aigc-data/hug_model/models--bert-base-uncased.tar.gz
解压models--bert-base-uncased.tar.gz
cd ~/.cache/huggingface/hub
tar -xvf models--bert-base-uncased.tar.gz
5、创建python环境
conda create -n stable_diffusion python=3.10
6、安装依赖
我用的miniconda安装依赖前几乎没有其他包
pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116
pip install clip
pip install open-clip-torch
pip install xformers==0.0.16rc425
pip install tb-nightly==2.13.0a20230405 -i https://mirrors.aliyun.com/pypi/simple
pip install -U httpx==0.24.1
7、运行
cd stable-diffusion-webui
python launch.py --no-half-vae --xformers
运行失败,Can't load tokenizer for 'openai/clip-vit-large-patch14'
创建openai文件夹
到魔搭社区模型库搜索,然后下载即可
cd openai
git clone https://www.modelscope.cn/xiaoguailin/clip-vit-large-patch14.git
下载需要等大概20分钟,看网速,耐心等待
下载完成后需要修改路径,下面这个说的很清楚Stable Diffusion WebUI linux部署问题_oserror: can't load tokenizer for 'openai/clip-vit-CSDN博客
总的来说就是找到一下两个文件
stable-diffusion-webui/repositories/generative-models/sgm/modules/encoders/modules.py
stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py
两个文件总共要就该4处
因为我的openai放的位置是stable-diffusion-webui项目的同级目录
所以改成下面这样就可以了
我是在服务器上部署的,部署后使用http://ip:7860无法访问,需要修改配置,找到
stable-diffusion-webui/modules/cmd_args.py这个文件
修改为
重新运行
python launch.py --no-half-vae --xformers
ok,运行成功
PS:我从可运行的stable_diffusion道出了依赖文件,在按照我上面的过程安装后如果还有缺少的包可以通过依赖文件查看版本下载地址: https://download.csdn.net/download/qq_25434875/89022782