当前位置:AIGC资讯 > AIGC > 正文

AI绘画教程:Stable Diffusion中如何控制人像的姿势?

在AI绘画中,有时候我们需要主角(人物或动物)摆出特定的姿势,该怎么做呢?

第一种方法:以图生图

打开Stable Diffusion界面,点击imag2img

下面出现一个”drop image here or click to upload”的方框,从网上找一张你希望呈现的姿势图片,比如一个老鹰,姿势:双眼盯着远方。把这张图片拖拽到方框,或者从本地电脑上传。

然后在提示词框里输入提示词,比如:a dragon ,然后点击generate生成图像。但是这样生成的图像,姿势不好控制,有些会比较像,有些差很远。

第二种方法:使用ControlNet。这是一个很强大的stable Diffusion插件,可以精准的控制AI绘画中人物或动物的姿势,从而生成很多好玩有创意的图片。

比如,穿上钢铁侠战衣的擎天柱:

现在大部分stable Diffusion的colab包都自带ControlNet,如果你使用的版本里没有,可以打开extensions,在安装时勾选ControlNet

下载ControlNet模型那一栏,选择通用的姿势控制模型ControlNet_openpose(也可以都选)

现在,打开stable Diffusion,可以在提示词框下面看到control net的按钮

有一个Enable的方框,勾选,就启用control net了。

我们来测试下control net的效果。先不启用control net,输入提示词,生成如下图片,可以看到图片中人物的姿势各异。

然后我们上传一张瑜伽动作姿势的图片到control net,然后勾选enable,Preprocessor选择openpose,Model选择openpose-sd21-safe [2be3125b]

再次点击generate按钮,这时候生成的图片基本保持了和上传图像中的瑜伽动作

但是,这个动作和源照片中的瑜伽动作差距有些大,生成效果不是很理想。这不是插件的问题,而是选用的模型不太对。

Control net的Preprocessor有很多种模型可选:canny、depth、depth_leres、hed、mlsd、

normal_map、openpose、openposehand、clip_vision、color、pidinet、scribble、fake_scribble、segmentation、binary。这些都是什么意思呢?

Openpose:最常用的模型,采取图片中的人物骨架做为参考,以生成图片。用于人物动作。

Canny: 撷取图片中的边缘线做为参考,以生成图片

mlsd : 撷取图片中明显的直线做为参考,以生成图片。一般用于建筑、物体的检测,常用于室内装潢,建筑设计

Hed: 撷取图片中的特征做为参考,以生成图片。也是边缘提取,跟canny类似

Scribbles:手稿模型 撷取使用者提供的线条做为参考,以生成图片。可以把随手画的涂鸦生成精美的画面

Segmentation:将图片化为大略的色块作为参考,以生成图片

Depth:提取深度检测信息,可以生成具有同样深度结构的图 。

normal:模型识别,跟深度图有点类似,但对于细节的保留更加的精确。通过读取原图片中的深度信息和法线背景阈值。

Pidinet:检测图像中的曲线和直线条,然后生成图片。生成的结果和HED有些相似。不过,细节会少一些。

Fake Scribble:从成品图中提取出草图 ,和涂鸦是倒过来的。

总结下,这些不同的模型采用的不同方法来控制姿势,并没有谁更好谁更差,而是需要根据需要和图像特征来选择对应的合适模型。

通常来说,对于人像,HED 模型可以最精准的复制人物动作。Canny 、 depth、normal也不错,但是有时可能会有一些变形。从上面图像来看,不仅复制了动作,还复制了、发型和衣服,效果不是很理想。OpenPose在复制动作的同时,则没有死板的去复制衣服和发型,而是精准的生成提示词中的内容,可以说是形神兼备,效果最佳。mLSD则完全不适合人像,复制效果非常差。

回到最开始的例子中,将preprocessor模型从openpose改成hed,可以看到生成图片中人物的动作和源图片中的人物动作一模一样,精准还原。

关于AI绘画技术储备

学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!

?[[CSDN大礼包:《StableDiffusion安装包&AI绘画入门学习资料》免费分享]](安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门AI绘画是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以找到适合自己的学习方案

包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!

零基础AI绘画学习资源介绍

?stable diffusion新手0基础入门PDF?

(全套教程文末领取哈)

?AI绘画必备工具?

?AI绘画基础+速成+进阶使用教程?

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

温馨提示:篇幅有限,已打包文件夹,获取方式在:文末

?大厂AIGC实战案例?

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

?12000+AI关键词大合集?


这份完整版的学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

总结

### AI绘画中的姿势控制技巧总结
在AI绘画中,要精确控制主角(人物或动物)的姿势,依托于先进的技术与工具。本文介绍了两种方法,并以Stable Diffusion平台为例,详细阐述了实现过程。
#### 方法一:以图生图(Imag2Img)
1. **操作步骤**:
- 打开Stable Diffusion,点击imag2img功能。
- 上传一张期望的姿势图片(如老鹰双眼盯远方)。
- 在提示词框输入如“a dragon”,点击生成图像。
- **限制**:生成图像的姿势控制不够精确,结果各异。
#### 方法二:使用ControlNet插件
1. **插件优势**:能精准控制人物或动物的姿势,提升创意图片的生成质量。
2. **安装与使用**:
- 确认Stable Diffusion版本是否支持ControlNet,若不支持,通过extensions安装。
- 下载并启用ControlNet插件,选择适用的姿势控制模型(如ControlNet_openpose)。
- 上传一张参考姿势图片(如瑜伽动作),启用ControlNet并设置好Preprocessor和Model(如openpose)。
3. **调整与优化**:
- 不同的Preprocessor模型(如Canny、Hed、Depth等)适用于不同场景,需根据需求选择。
- 针对人像,HED模型可精准复制动作,OpenPose则在复制动作同时保留提示词内容,效果更佳。
- 实验中通过调整模型,提高生成图片与源图片的相似性。
#### AI绘画技术储备与学习资源
- **学习规划**:AI绘画作为新兴领域,就业前景与副业机会广阔,需系统学习。
- **学习资源**:提供如Stable Diffusion安装包、0基础入门PDF、视频教程、大厂AIGC实战案例及AI关键词大合集等全套学习资料(见文末链接)。
- **推荐方式**:
- 对学习时间紧迫的零基础小白,建议通过视频教程快速入门。
- 通过动手实操与实战案例,将理论知识应用于实际创作。
#### 总结
AI绘画通过以图生图及ControlNet插件等方法,有效提高了角色姿势的控制精度与创意。掌握先进工具与丰富学习资源,将有助于深入学习并提升AI绘画技能。

更新时间 2024-07-30