当前位置:AIGC资讯 > AIGC > 正文

Stable Diffusion基础:ControlNet之线稿成图

今天继续给大家分享Stable Diffusiion的基础能力:ControlNet之线稿成图。

所谓线稿就是由一条条的线段组成的图形,主要用于绘画和设计领域的打底稿、表达构想和预见最终效果。

所谓线稿成图就是利用 Stable Diffusion + ControlNet 的能力,依照线稿中的图形设计生成创意图片。借助ControlNet,我们可以直接使用线稿图生成图片,也可以先从其它图片中提取线稿,然后再生成图片。

下面我将介绍ControlNet中四个优秀的线稿模型,以及它们的使用方法和注意事项。

安装ControlNet

工欲善其事必先利其器,ControlNet 还是先要安装好的,已经安装好的请跳过这一步。

使用方法

Canny

基于精细的边缘检测,准确还原图片的结构和特征。Canny边缘图中的线条没有粗细、深浅的区分。

因为是真人图片,所以这里选择了一个现实视觉的大模型:realisticVisionV51,提示词可以手写,也可以找个反推工具反推。

如果是生成真人图片,建议把“面部修复”勾选上。

ControlNet的设置是重点:

1、展开ControlNet控制面板。

2、在Unit 0中上传一张需要提取边缘的图片。

3、勾选“启用”,启用当前ControlNet Unit。

4、勾选“完美匹配像素”,自动设置预处理器的分辨率。

5、勾选“允许预览”,这样就可以预览边缘检测的效果。

6、选择“Canny”

7、预处理器和模型会自动加载,暂时不更改它们。

预处理器可以检测图片中人物和物体的边缘,绘制出边缘图。点击预处理器后边的星火图标可以在预览区看到预处理的效果图。

预处理器器还有两个选项:

无:不使用预处理器,直接在ControlNet中上传一张线稿图。 颜色反转:ControlNet中能够处理的线稿图需要线条是白色, 其它区域是黑色,这和现实中的线图颜色是相反的。所以通过这个预处理器,我们可以直接反转一张现实世界的线稿图,供ControlNet模型进行生图处理。不适合普通的彩色图片。

8、控制权重:ControlNet模型在生成图片时的权重,降低这个权重,线稿对绘图的约束就会变弱。

启动控制的步数:Canny介入的时机。介入时机越早,越能保证构图依照边缘图,一般从0开始。

结束控制的步数:Canny退出的时机。退出时机越晚,细节保留程度越大,如果要多变换一些细节,可以提前退出。

9、这两个阈值是canny预处理器提取线稿图时使用的,通过调整阈值可以控制边缘图中保留细节的多少。

Canny Low Threshold:去掉过细的线段。大于低阈值的线段被认定为边缘。

Canny High Threshold:去掉零散的线段。大于高阈值的线段被认定为强边缘,全部保留;高阈值和低阈值之间的线段认定为弱边缘,只保留强边缘相邻的弱边缘。

10、控制模式:ControlNet的通用设置,以提示词为主,还是以ControlNet模型为主。

11、缩放模式:ControlNet的通用设置,参考图与要生成的图片尺寸不一致时如何处理。拉伸有变形的问题,一般使用裁剪和填充。

Lineart

使用线条艺术生成训练,通常用于黑线白底图的上色,也可以从各种图片中提取线条,然后再生成图片。

Lineart的线条有粗细深浅的区别,相比Canny,除了能够控制构图,还可以更好的还原图片深度。

下图的几个设置和上面Canny控制器的设置差不多,只是上传的图片换成了一张黑白线稿图。

重点看下这几个设置:

Lineart:线稿控制网络。

预处理器:从图片提取线稿图的处理器。这里有多个预处理器,简单介绍下:

none:不使用预处理器,需要直接上传一张处理好白线黑景线稿图。 lineart_anime:适合从动漫图片中提取线稿图。 lineart_anime_denoise:适合从动漫图片中提取线稿图,并去掉噪音点。 lineart_coarse:从图片中粗略提取线稿图,忽略不突出的细节,生图时自由度更高。 lineart_realistic:从真实视觉的图片中提取线稿图。 lineart_standard:从图片提取线稿图的标准版处理器。 颜色反转:反色图片,适合从白色背景、黑色线条的图片中提取线稿图。

模型:根据线稿图生成图片的ControlNet模型。

control_v11p_sd15_lineart_fp16:通用线稿图生成模型。 control_v11p_sd15s2_lineart_anime_fp16:二次元线稿图生成模型。

SoftEdge

使用软边缘图像生成训练,平滑的边缘、更好的深度,忽略内部细节,方便创作更具绘画特征或艺术风格的图片。

相比Canny、Lineart,SoftEdge除了稳定构图,更好的图片深度控制,还拥有了更多的自由度。

重点看下ControlNet的这几个设置:

预处理器:从图片中提取软边缘图。

softedge_hed:合成柔边图。

softedge_hedsafe:安全的合成柔边图,边缘更清晰,稳定性更高。

softedge_pidinet:简笔柔边图,描绘的细节更少,出图的细节更自由,姿势更稳定。

softedge_pidinet:安全的简笔柔边图,边缘更清晰,稳定性更高。

模型:control_v11p_sd15_softedge_fp16,参与生成图片的软边缘模型,只有这一个。

Scribble

这是一个称之为涂鸦成图的ControlNet,生成图片的自由度更高。

丁老头大家都画过吧,我这里把它生成一个毛绒玩具的图片。

注意这几个参数:

预处理器:

无:不对参考图进行预处理,需要自己上传处理好的涂鸦图,白色代表线条。

scribble_hed: 粗线合成涂鸦图,用来生成随机性较强的图。

scribble_pidinet: 粗线简笔合成涂鸦图,生成图片的自由度比 scribble_hed 弱。

scribble_xdog:从图片中提取更多的细节生成涂鸦图,结构和轮廓的限制更多。

颜色反转:简单的反转图片中的黑白色,适合黑白图的处理。

模型:control_v11p_sd15_scribble_fp16,参与生成图片的涂鸦模型,只有这一个。

Scribble 也可以用来处理真实的图片,与Canny、Lineart、SoftEdge相比,最大的变化就是,构图会发生一些变化,而且它没有对图片深度的处理。

效果对比

考虑到 Scribble 对原图的变化过大,这里只对比前三个:

可以看到 SoftEdge 对构图和深度处理的最好,当然细节上也更自由。

资源下载

本文使用的模型、插件,生成的图片,都已经上传到了我整理的SD绘画资源中,后续也会持续更新,如有需要,请添加下方领取!

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

更新时间 2024-05-26