当前位置:AIGC资讯 > AIGC > 正文

一步步带你解锁Stable Diffusion:Stable Diffusion文生图保姆级入门介绍

首先呢,小伙伴们打开 Stable Diffusion 「后续还是简称SD」的界面大概是这样子的,因为我们加了一下插件的原因呢,我的界面可能和小伙伴的初始界面有点区别,这个不重要啊!多的那些个功能呢,今天也不讲啊!小伙伴们也不要着急,后续会给大家一一介绍的哈。

模型: 首先SD最重要的也就是它的模型了,你使用不同的模型最终出图的效果就会不一样。模型可以去网上下载,分享两个模型下载网站:

https://civitai.com/

https://www.liblibai.com/

提示词: 提示词分为正向提示词和反向提示词,顾名思义就是你想要什么和不想要什么。

需要注意的是在前面的提示词,会得到更多的权重,其次是末尾的提示词,在中间的权重比较小。如果我们给的提示词很多,那SD会忽略掉中间的一些提示词来减少计算量。后续也会介绍怎么单独给提示词加权重,以及提示词的框架。

迭代步数: 一般设定在20~30之间,主要取决于你的大模型。迭代步数越高,图片会越精致,越精确,但是消耗的时间也会相应增加。并不是越高越好,合适的才是最好的。

采样方法: SD提供了很多采样方法,给我们提供了多种场景的适配算法,每个采样方法都有它擅长的图像生成场景。例如:Euler a 适合生成相对简单的图像,适应于快速生成图像的场景,比如二次元的场景;DPM++ 2M Karras、DPM++ SDE Karras 可以快速生成高品质图像,比如真人,自然场景的场景;UniPC 可以生成更逼真的图像,并提高了采样速度,相当于你可以以更少的迭代步数实现更复杂精致的场景。主要适应与人形体相关的场景。

面部修复: 主要是用来修复扭曲的人脸,适用于真人场景,小伙伴们要是人物的脸部崩坏,可以勾选这个选项。

平铺图: 可以实现图像的拼贴效果,适用于生成花纹的场景。

高分辨率修复: 默认情况下,文生图在非常高的分辨率下(宽高大于756像素)制作图像,会出现比较混沌的图像,所以官方建议如果制作高分辨率的图像,打开该选项。这里说下放大算法。

放大算法:

真实图片场景(R-ESRGAN 4x+)

动漫二次元场景(R-ESRGAN 4x+ Anime6B)

宽高度: 顾名思义就是生成图片的分辨率,这个主要看小伙伴们的显卡的显存大小,显存越大,你就可以设置更高的分辨率。

总批次数: 生成多少个批次,一般想要多出图,用这个就可以。

单批数量: 每个批次生成多少张图片,显卡显存少慎用,需要大显存支持。

提示词引导系数: 最终出图效果与你提示词的匹配程度,一般是3~11,和你的大模型有关。也不是越高越好哦,太高会破坏图像的结构和细节。

随机数种子: 相当于每张图片生成的编号,点击1号按钮,每次生成的图片都是随机的;点击2号按钮,就会固定 seed 值,使用相同的 seed 值,可以降低图像的随机性。

开头这两个功能比较相近,都是「从提示词和上次生成的图片中读取生成参数」。这里的功能后续再详细介绍。旁边的垃圾桶不用过多介绍了吧,会清空你写的提示词。

「显示或隐藏扩展模型」,点击会出现大红框里的模型。可以方便你选择。

「将所选预设样式插入到当前提示词之后」,选择预设样式,并点击当前按钮,预设的提示词就会自动加入你的提示词之后。

「将当前提示词存储为预设样式」,和上边的按钮是对应关系,可以把你的提示词存储为预设样式。

以上就是文生图相关的功能啦,小伙伴们理解的咋样嘞。小伙伴们多用用就熟悉啦。毕竟,熟能生巧嘛!最后我们就用文生图生成几张图片看看效果哈。要不然小伙伴们以为我在唬人嘞!

以上都是用Stable Diffusion文生图模式生成的喔,童叟无欺,小伙伴们还等啥嘞,快去试试吧!

早点开启AI学习,给自己的人生来个翻天覆地的变化吧!

如果你也对AI技术感兴趣感兴趣,可以下方扫码免费领取一份AI技术入门资料包wx扫描二v码免费领取【保证100%免费

在可预见的未来,随着AI大范围在职场推广,使用门槛降低,部分还在做重复工作的打工人会不可避免地被取代。

这也是为什么身边越来越多人都在学AI。

负责任地说,这是AI离普通人超近的一次。它——

很简单: 只要你有一个浏览器,登录一个网页,会打字、会聊微信就能够直接使用。

很实用: 任何上班族,无论你的工作涉及文字、图片、数字,或是办公软件全家桶,它都能成为你的高效助理。

很聪明: AI如同一个六边形战士,当你有个绝妙点子,它能随时点亮技能树,用编程、写作、绘画技能把你的想法落地。

随着人工智能的推广,具备AI技能的人将更容易适应未来岗位需求,成为早期吃到红利的稀缺人才。

更新时间 2024-02-24