当前位置:AIGC资讯 > AIGC > 正文

stable diffusion实践操作-SD原理

系列文章目录

本文专门开一节写SD原理相关的内容,在看之前,可以同步关注:
stable diffusion实践操作

文章目录

系列文章目录 前言 一、原理说明 1.1、出图原理 1.1.1 AI画画不是和人一样,从0开始,而是一个去噪点的过程: 1.1.2 逆向去噪 1.1.3 AI如何学会去噪点的 1.2、文生出图机制 1.2.1 文字编码 CLIP 1.2.2 图片绘制 1.2.2.1 随机种子和采样器 1.2.2.2 迭代步数 1.2.2.3 采样方法 1.2.3放大图片 总结

前言

(后期补充)

一、原理说明

1.1、出图原理

<img src+“” width=600>

1.1.1 AI画画不是和人一样,从0开始,而是一个去噪点的过程:


<img src+“” width=600>

1.1.2 逆向去噪

所有的人图片都是从一张噪点图开始的。根据目标生成一张猫的图片,将噪点一步步转化为猫
<img src+“” width=600>

1.1.3 AI如何学会去噪点的

AI首先将图片一步步加入噪点。

<img src+“” width=600>
所以任何一张图都可以逆向这个过程

<img src+“” width=600>
<img src+“” width=600>

<img src+“” width=600>

1.2、文生出图机制

生成图片,我们需要两个主要输入,提示词prompt和随机种子

将输入的文字进行编码传入潜空间。 在潜空间根据文字的描述,进行图片的绘制 将图片从潜空间的压缩态进行放大,补充细节,提升分辨率



本文知乎链接:
入口
clip模型
在 Stable Diffusion 模型中,prompt 是通过引导向量(guidance vector)来控制 U-Net 的。具体来说,prompt 会被编码成一个文本嵌入向量(text embeddings),然后与其他输入一起传递给 U-Net。这个过程可以分为以下几个步骤:

首先,将 prompt 输入到一个预训练的语言模型(例如 GPT)中,以获得对应的文本嵌入向量(text_embeddings)。 接下来,将 text_embeddings 与其他输入(如隐变量 latent_model_input 和时间戳 timestamp)拼接在一起,形成 U-Net 的输入。 将这个输入传递给 U-Net,并计算出有条件的噪声预测(noise_pred_text)。同时,也会计算出无条件的噪声预测(noise_pred_uncond)。 使用一个指导比例因子(guidance_scale)来调整有条件和无条件噪声预测之间的权重。这个因子可以根据实际需求进行调整,以控制 prompt 对生成结果的影响程度。 最后,将加权后的噪声预测传递给扩散调度器(scheduler),并更新隐变量(latents)。
通过这种方式,prompt 能够影响 U-Net 的输出,从而在生成过程中引导模型产生符合预期的结果,即通过 prompt 产生我们想要的图。

解开Clip Skip值的秘密

1.2.1 文字编码 CLIP

计算机不能直接理解文本和图片

而是通过特征向量来标记

而这一项工作是通过CLIP模型来完成的

clip模型包括文字编码器和图片编码器,将文字和图片都编码成向量

所以CLIP设置的层数越高,图片和文字相关度越低,一般设置为2就可以了。

1.2.2 图片绘制

SD绘制图片内容的时候,并不是直接绘制512512的图片,而是绘制核心内容,6464,然后再将图片放大还原。

所以绘图的实际过程就是去噪

1.2.2.1 随机种子和采样器

SD会根据随机种子生成一张正态分布的噪点图,然后根据传入的文字,加入是狗,去向量数据库中搜索,生成狗的去噪方式。去噪方式又是采样器进行调用的

采样器会调用Unet模型,对图片中的噪点预测,生成噪点预测图

让噪点图减去预测出的全部噪点,生成最终的模型图片

1.2.2.2 迭代步数

Unet模型在噪点多的时候,预测并不理想,所以我们并不一次性全部采纳其预测的噪点,而是每次只采用一部分噪点,循环多次


这个过程就是下面的迭代步数

设置过小,图片与文本匹配度较低,过大,则会画蛇添足,一般我们设置为20-40步即可

1.2.2.3 采样方法

采样所采用的算法,不同算法消耗的时间不同。

采样器时间对比

一般推荐大家 使用DPM++ SDE Karas/DPM2++ SDE Karas
对比:


1.2.3放大图片

在潜空间产生的图片比较小,我们需要VAE将其放大,优化细节。

这就是整个过程

总结

例如:以上就是今天要讲的内容。

更新时间 2024-02-08