前言
工欲善其事,必先利其器!今天我们聊聊 Stable Diffusion WebUI 的基础操作以及各个参数都代表了什么。(AI绘画SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,无需自行查找,有需要的小伙伴文末扫码自行获取。)
一、大模型的切换
在 Stable Diffusion (以下简称 SD)的背景下,大模型通常意味着,它能够更准确地理解给定的文本提示,生成更符合用户期待的图像。
这些大模型通常是通过使用大规模数据集训练出来的,这些数据集包含了大量的图像和相关的文本描述。
总的来说,“大模型” 在 SD 中指的是一个大型的、参数众多的神经网络,它具有生成高质量图像的能力。但相应地,也提出了更高的数据和计算要求。
1.1 在 SD WebUI 中如何切换大模型
如图:界面左上角,在这里可以切换你所安装的模型。
1.2 如何获取大模型
获取大模型的首选就是 C 站:https://civitai.com/。
当然国内也有一些网站可以下载大模型,比如 哩布ai,这里我们以C站为例进行讲解。
如图所示:选择 Checkpoint,然后在输入框输入要下载的模型名
模型下载下来后,放入指定文件夹下,然后点击后面的刷新按钮即可使用。
1.3 大模型存放路径
下载下来的模型文件要放到指定目录下:SD 根目录\models\Stable-diffusion,比如我这里是 sd-webui-aki-v4.5\models\Stable-diffusion
二、模型的VAE
VAE 的全称是 Variational Auto-Encoder,翻译过来是变分自动编码器,本质上是一种训练模型,Stable Diffusion 里的 VAE 主要是模型作者将训练好的模型“解压”的解码工具。
现在的大模型一般都内嵌了 VAE 属性(不需要再下载 VAE 文件)。一般情况下我们就选择第一个 自动 就行了。
有的模型需要指定 VAE,那么在下载大模型的时候,同时也要把指定 VAE 下载下来。在 C 站下载模型,在下载页面会有文件显示,如图所示:
2.1 VAE的安装路径:SD目录\models\VAE
三、功能选项
在这一部分,我将重点解释一些关键的功能。
3.1 文生图
Stable Diffusion 提供了一个独特的特性,那就是反向关键词功能。
反向提示词允许用户指定他们不希望在图像中出现的元素,这与 Midjourney 不同。但是在关键词格式上与 Midjourney 大致相似。
下面这块参数就是设置图片的一些基本参数,比如分辨率、尺寸等等,具体参数见下文。
3.2 图生图
这一功能很直观:用户提供一张参考图片,并输入相应的提示词,便会根据这些信息生成新的图像。这一点 Stable Diffusion 与市面上其他 AI 绘画软件保持了一致性。后面我会再讲解一些更高阶的玩法。
3.3 图片信息功能
当你使用 Stable Diffusion 来绘制一张图像后,你可以在该功能区域上传这张图片。随后,会在界面的右侧部分展示出这张图像的相关参数,包括用于生成该图像的关键词、seed值、尺寸等。
这样的设计便于用户理解和追踪图像生成的背后逻辑及其构成要素。然后可以再发送到文生图或图生图等功能界面,进行进一步创作。
3.4 训练功能
用户可以通过这个选项来训练自己的个性化模型。
这项功能对于新手来说可能不太常用,但对于希望深入掌握和利用 AI 为自己的工作流量身定制解决方案的用户来说,它是非常有价值的。
这个是我强烈推荐的核心特性之一,因为它为用户提供了极大的灵活性和自定义能力。
3.5 设置界面
就是常规的设置选项,小伙伴们直接研究下就好了。
3.6 扩展功能
这个也是常用的功能,这个跟插件的扩展相关,SD 之所以强大离不开丰富的生态社区,后面我们会详细展开来说。
四、正向提示词和反向提示词
在 SD Webui 中创作数字艺术或进行图像生成时,你可以通过输入你想要描绘的元素来驱动创作过程。
将这些元素列在正向提示词框内,必须使用英文且词间以半角逗号分隔。
同时,如果有你不希望出现在作品中的元素,可以在反向提示词框内列出。此框同样只接受英文输入,并且要求使用英文半角符号。这种方法使得创造过程更为精准,便于实现具体的创作意图。
通常情况下,提示词中越靠前的词,权重就会越大,比如上面图中的提示词:
1girl, solo, hand fan, looking at viewer, long hair, holding, upper body, holding fan, black hair, chinese clothes, ((sparkle)), hair bun, simple background, red lips, flower, hanfu, long sleeves, closed mouth, single hair bun, paper fan`` ``女孩,独奏,手扇,看观众,长发,手持,上身,手持扇,黑发,中式服装,闪闪发光,发髻,背景简单,红唇,花,汉服,长袖,闭口,单发髻,纸扇
生成的图形主体就是手拿手扇的女孩:
在这里有用过 Midjourney 的小伙伴可能就有疑问了,((sparkle))是什么意思,为啥有这么多括号,我来为大家解答下,这个增加权重的意思,类似 Midjourney 的 ::。
① 最直接的权重调节就是调整词语顺序,越靠前权重越大,越靠后权重越低,前面我们也提到过。
② 可以通过下面的语法来对关键词设置权重,一般权重设置在 0.5~2 之间(一般不推荐超过1.5),可以通过选中词汇,按 ctrl+↑↓ 来快速调节权重,每次调节为 0.1,也可以直接输入。
五、功能按钮
5.1 生成按钮
顾名思义,输入关键词,参数调整好后,点击生成就开始生成跑图了。
如图第一个按钮:它的功能是读取你上一张图的所有参数信息(包括关键词)。
上图第二个按钮:不常用,单独单开一个窗口,进行提示词的输入,输入完成后点击提交就会提交到提示词框中。
第三个按钮:就是删除了,清空提示词和反向提示词中的关键词;这里可以和第一个按钮结合用哦。
第四个按钮:就是显示/隐藏扩展模型,便于管理模型。
点击该按钮后会出现以下界面,如图所示:自己所安装的模型和Lora都可以在这里调整。
如图第五个按钮:把当前选中的预设提示词,添加到提示词框中。
首先在预设样式中选中预设提示词,然后点击该按钮后该预设样式的提示词就会提交到提示词框中。
如图最后一个按钮:把当前提示词框中的提示词,保存为预设提示词,便于以后使用。
点击该按钮后,会有提示框弹出,填写完提示词名称,后点击确定,就会保存该提示词到预设。该按钮可以和第五个按钮结合使用。
六、采样迭代步数
通常情况下,迭代步数在 20—30 范围内即可。采样步数过低可能会造成图像渲染不完整,而过高的采样步数对生成图形的质量没有显著的提升。
因此,除非目标是创造一幅极尽细节描绘的图像,否则没必要使用更高的采样步数。因为,提高采样步数会使得图像生成速度变慢。
七、采样方法
Stable diffusion webui 是将 Stable Diffusion 实现可视化的图像用户操作界面,它本身还集成了很多其它有用的扩展脚本。
其中 SD 中的采样方法就非常的多,这里我们只介绍几个种常用的。
SD 中默认是显示全部的采样方法,但是我们常用的就是那么几个。因此,我们可以去设置里面,把不需要用到的关掉,这样界面中就会只显示我们常用的那几个。
**注意:**修改设置后,要报存,然后点击右边的重启 UI 修改就会生效。
八、高清修复和图片尺寸参数
在这里对面部修复做个简单的介绍,它对写实的风格有点效果,但是平铺生成的图片很奇怪,个人不推荐使用。后面会介绍更好用的面部修复的方法。比如ADetailer。
高清修复,高清修复的意思是把基础生成的图片,按照你选择放大的倍率放大到指定分辨率之后再重新绘制图片,受到你重复幅度调节的数值影响,推荐重绘幅度不要超过0.7。
放大算法推荐使用 R-ESRGAN 4x+ (写实风格)和 R-ESRGAN 4x+ Animate6B (二次元风格)。
宽度、高度就是图片的长宽比,很容易理解,生成批次和数量就是几批,一批几张图,配置好的可以直接拉满,增加效率哦。
**提示词相关性,**图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提示(根据模型),但它也在一定程度上降低了图像质量。可以用更多的采样步骤来抵消。
九、seed-随机种子
这里的 seed 与 Midjourney 的 seed 功能一样。
如果固定随机种子,那么可以多次生成相同(或几乎相同,如果启用了 xformers)的图像。
如果对已经生成的图像基本满意,只是稍微改变你的输入参数,以前产生好结果的种子很可能仍然会产生好结果。
9.1 如何获取种子
生成图后,会在下方出现该图的具体参数,其中包括种子,如图:
9.2 差异随机种子
需要勾选这个按钮,才会出现
差异随机种子的功能是固定一个种子,然后调整差异强度来生成图片,因为是固定的 seed 值,所以生成的图风格都是类似的。直接看效果:
关于 Stable Diffusion WebUI 的基础操作我们就介绍到这里。
以上就是本期全部内容,希望对你有所启发和帮助。如果你觉得这篇文章写得不错,就动动小手为我点赞、关注并转发吧,让更多人也能get到这些实用的干货!
小伙伴们赶紧操练起来吧!
文章使用的AI绘画SD整合包、各种模型插件、提示词、AI人工智能学习资料都已经打包好放在网盘中了,无需自行查找,有需要的小伙伴文末扫码自行获取。
写在最后
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
三、最新AIGC学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
总结
### 文章总结**主题**: 文章全面介绍了Stable Diffusion WebUI的基础操作、模型切换、VAE解释、功能选项、正向与反向提示词、采样迭代、高清修复及图片尺寸参数设定等关键功能,并附有AIGC未来发展趋势分析及学习资源分享。
**内容概述**:
1. **引言**:强调了选择合适工具对提高创作效率的重要性,顺便提供了本文配套的AI绘画SD整合包等学习资料的获取方式。
2. **大模型的切换**:解释了Stable Diffusion(SD)中大模型的概念,如何在SD WebUI中切换这些模型,以及从哪里获取和存放它们。
3. **VAE(变分自动编码器)**:解释了VAE在Stable Diffusion中的作用,阐明了什么情况下需要手动指定VAE,并给出了其安装路径。
4. **功能选项**:深入探讨了SD WebUI的多个核心功能,如文本生成图像(文生图)、图像生成图像(图生图)、图片信息功能、训练功能和延伸的扩展功能。
5. **正向和反向提示词**:讨论了如何进行艺术创作的关键部分——输入提示词,并指出了设置关键词权重和优化生成的技巧。
6. **功能按钮**:详述了SD用户界面中的关键按钮功能,如生成按钮、预设提示词管理等。
7. **采样迭代**与**采样方法**:讲解了如何通过控制采样迭代步数和选择合适的采样方法来提升生成图像的质量。
8. **高清修复和图片尺寸参数**:为用户提供了关于如何通过调整高清修复的相关参数,以及图片的尺寸,来优化图像的细节和分辨率的指南。
9. **Seed随机种子**:介绍了Seed如何为生成图像提供可重复性和微调已生成图像的方法。
**结尾**:提供了关于AIGC未来发展展望和相关学习资料的打包分享,包含学习路线图、工具集合、视频教程、学习笔记及实战案例。
**总结**:本文章旨在详细指导用户如何高效利用Stable Diffusion WebUI进行AI创作,并展望了该技术在未来的发展趋势,同时通过提供丰富的学习资源,帮助用户深入学习和实践AIGC相关知识。