当前位置:AIGC资讯 > AIGC > 正文

Stable Diffusion 绘画入门教程(webui)-ControlNet(姿态预处理器openpose)

本片文章接着上篇文章ControlNet介绍他的控制类型,本篇介绍的预处理器为openpose

预处理器:openpose
模型:control_v11p_sd15_openpose
没下载模型的看上篇文章去下载一下哦,不然用不了

文章目录

一、干什么用的 二、详细用法 1、选大模型 2、写提示词 3、基础参数设置 4、启用controlNet 三、其他

一、干什么用的

这个处理器主要用于控制姿态,通常的实战用法用于:

1、控制人物身体姿势
2、控制人物手指(经常出现手指畸形或多手指用这个很方便控制住)
3、控制人物表情

如下图,控制整体大概姿势(我没写芭蕾舞,所以生成的姿态像,但像坐着二傻的姿态,哈哈哈,这就是有趣的地方啦)

二、详细用法

和之前一样,流程依然是:

1、选大模型
2、写提示词
3、基础参数设置
4、启用controlNet(上传图片、选择controlNet模型、调节controlNet参数)

1、选大模型

我这里用的是“majicMIXrealistic_v6.safetensors ”,根据自己喜好选择合适大模型即可

2、写提示词

依然是画质、主体、主体细节、人物服装和其他,加上lora

反向提示词配上通用的即可(不知道的伙伴参考之前的文章)

3、基础参数设置

这里注意的是宽和高尽量和之前一致哦,可以通过后边的controNet有个按钮,点一下就直接同步过来,不用手填。

4、启用controlNet

这里要控制整体姿态,用的是openpose
点击预处理器右边的爆炸图标,上边就可以看到预处理结果啦
然后点击预处理结果右下角的编辑,可以随意编辑火柴人调节姿态

三、其他

注意,姿态的预处理器还有其他几个

我自己使用的经验,一般手指比较清晰能识别出来的话,或者你手动调整能调整好就用带手部的预处理器,如果不行就用只识别姿态的处理器。

脸部的话因为点比较多,最好是近景特写脸部得照片用脸部的识别,否则生成的图像可能不太符合你的口味🤣。

更新时间 2024-06-03