当前位置:AIGC资讯 > AIGC > 正文

stable Diffusion 网页用户界面 github

稳定的 Diffusion 网页用户界面

使用 Gradio 库实现的稳定扩散的 Web 界面。

特征

带有图片的详细功能展示:

原始的 txt2img 和 img2img 模式 一键安装并运行脚本(但您仍然必须安装 python 和 git) 超越绘画 修复 彩色素描 提示矩阵 稳定扩散高档 注意,指定模型应该更加关注的文本部分 穿燕尾服的男人((tuxedo))会更加注意 一个男人在(tuxedo:1.21)-替代语法 选择文本并按Ctrl+UpCtrl+Down(如果您使用的是 MacOS,则按Command+Up或)自动将注意力调整到选定的文本(代码由匿名用户贡献)Command+Down 回环,多次运行img2img处理 X/Y/Z 图,一种绘制具有不同参数的图像三维图的方法 文本倒装 可以有任意数量的嵌入,并使用任何你喜欢的名字 每个 token 使用多个不同数量的向量 使用半精度浮点数 在 8GB 上训练嵌入(也有报告称 6GB 也可以工作) 附加选项卡包含: GFPGAN,修复面部的神经网络 CodeFormer,作为GFPGAN替代品的人脸修复工具 RealESRGAN,神经网络升频器 ESRGAN,具有大量第三方模型的神经网络升级器 SwinIR 和 Swin2SR(参见此处),神经网络升级器 LDSR,潜在扩散超分辨率升级 调整宽高比选项 采样方法选择 调整采样器 eta 值(噪声乘数) 更高级的噪音设置选项 随时中断处理 支持 4GB 显卡(也有报告称 2GB 显卡也可以工作) 批次正确的种子 实时提示令牌长度验证 生成参数 用于生成图像的参数与该图像一起保存 对于 PNG,以 PNG 块为单位;对于 JPEG,以 EXIF 为单位 可以将图像拖拽到 PNG 信息选项卡来恢复生成参数并自动复制到 UI 中 可以在设置中禁用 将图像/文本参数拖放到提示框 读取生成参数按钮,将提示框中的参数加载到UI 设置页面 从 UI 运行任意 Python 代码(必须运行才能--allow-code启用) 大多数 UI 元素的鼠标悬停提示 可以通过文本配置更改 UI 元素的默认值/混合值/最大值/步长值 平铺支持,通过复选框创建可以像纹理一样平铺的图像 进度条和实时图像生成预览 可以使用单独的神经网络来生成预览,几乎不需要 VRAM 或计算 负面提示,一个额外的文本字段,允许您列出您不想在生成的图像中看到的内容 样式,一种保存部分提示并稍后通过下拉菜单轻松应用它们的方法 变体,一种生成相同图像但有细微差别的方法 种子调整大小,一种生成相同图像但分辨率略有不同的方法 CLIP 询问器,一个试图从图像中猜测提示的按钮 提示编辑,一种在生成过程中改变提示的方法,比如开始制作西瓜,中途切换到动漫女孩 批处理,使用 img2img 处理一组文件 Img2img 交叉注意力控制的替代、逆欧拉方法 Highres Fix,一种便捷选项,只需单击一下即可生成高分辨率图片,且不会出现常见的失真 动态重新加载检查点 检查点合并,此选项卡可让您将最多 3 个检查点合并为一个 具有来自社区的许多扩展的自定义脚本 Composable-Diffusion,一种同时使用多个提示的方法 使用大写字母分隔提示AND 还支持提示的权重:a cat :1.2 AND a dog AND a penguin :2.2 提示没有令牌限制(原始稳定扩散允许您使用最多 75 个令牌) DeepDanbooru 集成,为动漫提示创建 danbooru 风格标签 xformers,选定卡的速度大幅提升:(添加--xformers到命令行参数) 通过扩展:历史记录选项卡:在用户界面中方便地查看、指导和删除图像 永久生成选项 培训选项卡 超网络和嵌入选项 预处理图像:裁剪、镜像、使用 BLIP 或 deepdanbooru 自动标记(用于动漫) 剪辑跳过 超网络 Loras(与 Hypernetworks 相同,但更漂亮) 一个单独的 UI,您可以在其中预览选择要添加到提示中的嵌入、超网络或 Loras 可以选择从设置屏幕加载不同的 VAE 进度条中显示预计完成时间 API 支持RunwayML 的专用修复模型 通过扩展:美学渐变,一种通过使用剪辑图像嵌入来生成具有特定美学效果的图像的方法(https://github.com/vicgalle/stable-diffusion-aesthetic-gradients的实现) 稳定 Diffusion 2.0支持 - 请参阅wiki了解说明 Alt-Diffusion支持 - 请参阅wiki了解说明 现在没有任何坏信了! 以 safetensors 格式加载检查点 放宽分辨率限制:生成的图像的尺寸必须是 8 的倍数,而不是 64 的倍数 現在有許可了! 从设置屏幕重新排序 UI 中的元素 Segmind 稳定扩散支持

安装与运行

确保满足所需的依赖关系并按照以下说明进行操作:

NVidia(推荐) AMD GPU。 英特尔 CPU、英特尔 GPU(集成和独立)(外部 wiki 页面) Ascend NPU(外部维基页面)

或者,使用在线服务(如 Google Colab):

网上服务列表

使用发布包在带有 NVidia-GPU 的 Windows 10/11 上进行安装

sd.webui.zip从v1.0.0-pre下载并提取其内容。 跑步update.bat。 跑步run.bat

有关更多详细信息,请参阅Install-and-Run-on-NVidia-GPUs

在 Windows 上自动安装

安装Python 3.10.6(较新版本的Python不支持torch),选中“将Python添加到PATH”。 安装git。 下载 stable-diffusion-webui 存储库,例如通过运行git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.gitwebui-user.bat以普通、非管理员、用户身份从 Windows 资源管理器运行。

Linux 上的自动安装

安装依赖项:

# Debian-based:
sudo apt install wget git python3 python3-venv libgl1 libglib2.0-0
# Red Hat-based:
sudo dnf install wget git python3 gperftools-libs libglvnd-glx
# openSUSE-based:
sudo zypper install wget git python3 libtcmalloc4 libglvnd
# Arch-based:
sudo pacman -S wget git python3

如果你的系统很新,你需要安装python3.11或者python3.10:

# Ubuntu 24.04
sudo add-apt-repository ppa:deadsnakes/ppa
sudo apt update
sudo apt install python3.11

# Manjaro/Arch
sudo pacman -S yay
yay -S python311 # do not confuse with python3.11 package

# Only for 3.11
# Then set up env variable in launch script
export python_cmd="python3.11"
# or in webui-user.sh
python_cmd="python3.11"

导航到您想要安装 webui 的目录并执行以下命令:

wget -q https://raw.githubusercontent.com/AUTOMATIC1111/stable-diffusion-webui/master/webui.sh

或者直接将 repo 克隆到你想要的任何位置:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

跑步webui.sh。 检查webui-user.sh选项。

在 Apple Silicon 上安装

在此处查找说明。

贡献

以下是如何将代码添加到此仓库:贡献

文档

该文档已从本 README 移至项目的wiki。

为了让 Google 和其他搜索引擎抓取该 wiki,这里提供了可抓取的 wiki链接(非人类可抓取)。

致谢

借用代码的许可证可以在Settings -> Licenses屏幕上找到,也可以在html/licenses.html文件中找到。

稳定扩散- https://github.com/Stability-AI/stablediffusion,https://github.com/CompVis/taming-transformers,https://github.com/mcmonkey4eva/sd3-ref​​ k-扩散 - https://github.com/crowsonkb/k-diffusion.git 拱肩 - https://github.com/chaiNNer-org/spandrel实现 GFPGAN - https://github.com/TencentARC/GFPGAN.git CodeFormer- https: //github.com/sczhou/CodeFormer ESRGAN - https://github.com/xinntao/ESRGAN SwinIR—— https://github.com/JingyunLiang/SwinIR Swin2SR—— https://github.com/mv-lab/swin2sr LDSR—— https://github.com/Hafiidz/latent-diffusion MiDaS- https: //github.com/isl-org/MiDaS 优化思路 - https://github.com/basujindal/stable-diffusion 交叉注意力层优化 - Doggettx - https://github.com/Doggettx/stable-diffusion,原始想法用于快速编辑。 交叉注意力层优化 - InvokeAI,lstein - https://github.com/invoke-ai/InvokeAI(原http://github.com/lstein/stable-diffusion) 亚二次交叉注意力层优化 - Alex Birch(Birch-san/diffusers#1)、Amin Rezaei(https://github.com/AminRezaei0x443/memory-efficient-attention) 文本反转 - Rinon Gal - https://github.com/rinongal/textual_inversion(我们没有使用他的代码,但我们使用了他的想法)。 SD 高档的想法 - https://github.com/jquesnelle/txt2imghd 用于 outpainting mk2 的噪声生成 - https://github.com/parlance-zz/g-diffuser-bot CLIP 询问器的想法和借用一些代码 - https://github.com/pharmapsychotic/clip-interrogator 可组合扩散的想法 - https://github.com/energy-based-model/Compositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch xformers- https: //github.com/facebookresearch/xformers DeepDanbooru - 动漫扩散器的询问器https://github.com/KichangKim/DeepDanbooru 从 float16 UNet 中以 float32 精度进行采样 - marunine 提出这个想法,Birch-san 提供扩散器实现示例(https://github.com/Birch-san/diffusers-play/tree/92feee6) 指导 pix2pix - Tim Brooks(星星)、Aleksander Holynski(星星)、Alexei A. Efros(无星星) - https://github.com/timothybrooks/instruct-pix2pix 安全建议 - RyotaK UniPC 采样器 - Wenliang Zhu - https://github.com/wl-zhao/UniPC TAESD - Ollin Boer Bohan - https://github.com/madebyollin/taesd LyCORIS - KohakuBlueleaf 重新开始采样 - lambertae - https://github.com/Newbeeer/diffusion_restart_sampling Hypertile - tfernd - https://github.com/tfernd/HyperTile 初始 Gradio 脚本 - 由匿名用户发布在 4chan 上。谢谢匿名用户。 (你)

总结

### 文章总结:稳定的Diffusion网页用户界面
#### 概述
本文主要介绍了使用Gradio库实现的稳定扩散的Web用户界面(Stable Diffusion WebUI),该界面提供了丰富的功能和灵活的配置选项,旨在为用户提供便捷且高效的文本到图像(txt2img)和图像到图像(img2img)生成体验。
#### 主要特征
1. **基本功能**:
- 支持原始的txt2img和img2img模式
- 一键安装和运行,但需预先安装Python和Git
- 多样化艺术和图像处理功能,如彩色素描、修复和提示矩阵
- 支持高级特性,如指定文本强调、回环处理和X/Y/Z图生成
2. **增强与扩展**:
- 高级图像处理工具如GFPGAN、CodeFormer、RealESRGAN等
- 调整宽高比、采样方法和噪音设置
- 实时中断处理和低硬件配置支持(4GB显卡)
- 允许自定义UI元素的行为和外观
3. **图像生成与优化**:
- 生成参数的保存与恢复
- 图像拖拽来重新加载生成参数
- 实时维护任务进度条和生成预览
- 支持批量处理和交叉注意力控制的不同方法
4. **社区扩展与高级功能**:
- 多种风格保存和变体生成
- CLIP询问器与提示编辑
- 合并检查点和自定义脚本支持
- 高分辨率修复和无失真图像处理
5. **用户界面定制与灵活性**:
- 通过动态检查和加载新特性
- UI元素重新排序和自定义设置
- 支持不同硬件平台,包括NVidia、AMD GPU、Intel CPU及Apple Silicon
#### 安装与运行
文章提供了详细的安装步骤说明,包括使用在线服务(如Google Colab)、Windows、Linux和Apple Silicon等不同环境下的安装过程中。此外,还提供了自动安装脚本的使用方法。
#### 贡献与文档
- 介绍了如何向该仓库贡献代码以及相关文档的位置。
- 特别感谢了众多为该项目做出贡献的GitHub用户及他们的项目。
#### 总体评价
该Stable Diffusion WebUI不仅功能丰富且操作便捷,为用户提供了一套完整的文本和图像生成与处理的解决方案。通过多样化的配置选项和强大的社区支持,用户可以灵活地实现各种图像创作和修改需求。

更新时间 2024-09-05