当前位置:AIGC资讯 > AIGC > 正文

webui automatic1111上可以跑stable diffusion 3的方法

stable diffusion 3 可以简单句子生成高质量图形,可以生成准确的文字,甚至可以支持中文。

stable diffusion 3 最初只支持API调用,最后把模型也完全开放了。Comfyui因为天生架构优势,第一时间跑起来了。既支持远程API模型调用,也支持本地模型。

现在stable diffusion的开源项目webui(automatic1111)上也可以跑本地模型了。具体方法是:

1. git切换到sd3分支,并拉取。

2. 登录 https://huggingface.co/stabilityai/stable-diffusion-3-medium 下载基本模型,不带clip的。

3. https://huggingface.co/stabilityai/stable-diffusion-3-medium/tree/main/text_encoders中下载所有clip,g与l二个模型,如果你的显存特别特别多, 内存也是怎么都用不完的,可以考虑下载T5xxl,或者直接下载带T5clip的sd3基础模型。

把模型与clip都放到webui对应目录中,这样就安装完成了。

因为SD3分支还未合并到主项目中,所以懂的同学可以按照上面方法先玩起来。看不明白本文的同学,建议再等一下,等master中合并了sd3后,再玩吧。

总结

**Stable Diffusion 3开放新纪元:高质量图形与中文支持的革新**
Stable Diffusion 3以革新之姿横空出世,不仅轻松驾驭简单句子生成高精度图形,更在文字理解与表达上迈出坚实步伐,甚至完美融入对中文的处理能力,重塑图像生成领域的边界。初期,SD3仅通过API调用的方式与用户互动,但其开放精神远不止于此,最终决定全面开放模型,让技术无限可能的探索得以深入每一个细节。
Comfyui凭借其独特架构优势,迅速响应,成为首批可兼容Stable Diffusion 3远程API与本地模型部署的平台,让用户体验无缝衔接,灵活自如。与此同时,开源社区也迅速跟进,自动化项目webui(automatic1111)现已支持SD3本地模型的运行,为技术爱好者与创作者开启了新的创意大门。
**上手指南:如何在webui上运行Stable Diffusion 3本地模型**
1. **Git抓取SD3分支**:首先,利用Git切换到Stable Diffusion的SD3专用分支并进行最新代码拉取。
2. **下载基础模型**:前往[Hugging Face Hub](https://huggingface.co/stabilityai/stable-diffusion-3-medium)下载不带CLIP模型的Stable Diffusion 3基础版本,这是生成高质量图像的关键一步。
3. **获取CLIP模型**:接着,在[相应页面](https://huggingface.co/stabilityai/stable-diffusion-3-medium/tree/main/text_encoders)下载CLIP的g与l两种模型,以提升文本与图像之间的关联性。对于显存、内存资源充裕的用户,可考虑下载T5xxl或直接选择带T5CLIP的SD3基础模型,以获取更为丰富的特征处理能力。
4. **模型集成与运行**:将下载的模型及CLIP组件妥善放置到webui的指定目录中,完成安装配置,即可享受SD3带来的全新创作体验。
**注意**:鉴于SD3分支目前尚未正式合并至webui主项目,强烈建议具备相应技术背景的用户按照上述步骤先行探索。而对于初学者,建议稍安勿躁,静待官方对SD3的整合与完善,届时将享受更加便利与友好的使用体验。

更新时间 2024-09-18