当前位置:AIGC资讯 > AIGC > 正文

AI绘画Stable Diffusion【人物三视图】:角色三视图的制作教程

大家好,我是程序员晓晓

关于三视图的制作,很早之前就有些小伙伴留言如何实现,当时只是给了大家制作的实现思路,最近又有些小伙伴提到了这个问题,今天我们就详细讨论一下这个问题,看一下最常见三视图的制作有哪些实现方式。话不多说,我们开整。

一. 实现方式一: 通过提示词实现

三视图提示词格式:

(three views of character:1.2),(three views of the same character in the same outfit:1.2),full body,front,side,back,front view,side vide,back view,front view of girl,side view of girl,back view of girl,【主体描述】 simple background,white background,masterpiece,best quality

下面我们以具体示例看一下效果。

大模型:IP DESIGN | 3D可爱化模型 V4.0

模型下载请看文末扫描即可获取)

正向提示词(这里只补充主体描述的关键词)

Prompt:1girl,blonde hair,long hair,princess peach,blue eyes,lips,eyelashes,earrings,crown,hood,casual

提示词:1个女孩,金发,长发,桃公主,蓝眼睛,嘴唇,睫毛,耳环,皇冠,兜帽,休闲

反向提示词

nsfw,lowres,bad anatomy,bad hands,text,error,missing fingers,extra digit,fewer digits,cropped,worst quality,low quality,normal quality,jpeg artifacts,signature,watermark,username,blurry,artist name,

采样器:Euler a

采样迭代步数:25

图片宽高:768*512

CFG: 7

我们看一下生成的图片效果。

相关说明:

(1)这种实现方式可控性不太好,需要大量抽签才能抽到符合要求的图片。不管是基于SD1.5还是基于SDXL的大模型,很多大模型对于三视图的准确理解还是不到位的。当然如果有能很好理解三视图关键词的的大模型,那这种实现方式也是很好的哈。

(2)如果出现生成不了三视图中某个视图效果,可以适当提高一下该视图的提示词权重。

二. 实现方式二:借助三视图LORA实现

我们可以在liblibAI的官网,通过关键词"三视图"搜索到相关的LORA。这里有很多支持各种不同风格的三视图LORA模型。

这里我们以使用量最大的 mw_3d角色ip三视图q版 LORA为示例讲解。该lora模型有支持SDXL大模型的尝鲜版(V2.0.1)和支持SD1.5大模型的版本(最新版V1.1)。

LORA:mw_3d角色ip三视图q版 V2.0.1 尝鲜版 模型下载请扫描获取哦

该版本使用的是基于SDXL1.0基础版本的底膜。该版本对动物的支持貌似更好了一些。触发词:mw_sanshitu、three view、full body

下面我们以具体示例看一下效果。

大模型:SDXL_1.0

正向提示词

Prompt:mw_sanshitu,full body,mermaid,simple background,standing,lora:mw\_3d角色ip三视图q版\_2.0.1:0.9\

提示词:Mw_sanshitu,全身,美人鱼,简单背景,站立

反向提示词

easynegative,dark,bad hands,bad feet,worst quality,low quality,normal quality,bad artist,bad anatomy,blurry

loar: lora:mw\_3d角色ip三视图q版\_2.0.1:0.9

采样器:Euler a

采样迭代步数:25

图片宽高:1024*768

CFG: 7

我们看一下生成的图片效果。

上面我们没有加三视图的视角关键词,我们把视角关键词添加一下:

Prompt:mw_sanshitu,full body,front view,side view,back view,mermaid,simple background,standing

当然也不能每次都能正确理解,但是抽签概率已经很大了。

相关说明:这种方式对于创作三视图来说,是相当不错的实现方式,但是没有办法准确的控制主体的姿势。三视图的视角仍然是随机的,虽然可以通过提示词来控制,但是还是需要抽签概率。

三. 实现方式三:使用ControlNet的 openpose模型

这种实现方式主要是通过ControlNet的Openpose插件可以实现人物姿势自由控制,我们借助这个插件生成的3种不同视角的人体姿势,从而达到精准控制人物姿势的3视图效果。

关于Openpose灵活人物姿势的控制可以参照之前的文章了解。AI绘画Stable Diffusion 中 OpenPose骨骼编辑器 | 以后出图姿势自由了!

下面我们来看一下具体示例操作步骤。

【第一步】:制作一张人物三视图的特征图片。

下面这张三视图的特征图片分别对应人物的:正面、侧面、背面。

相关说明:对于我们来说制作三视图的特征图片并不容易,我们可以在LiblibAI网站或者C站上找一张三视图的真人图片,然后在ControlNet中使用Openpose模型的Openpose预处理器生成一张三视图的特征图片。具体操作如下。

【第二步】:大模型选择、提示词编写、相关参数设置

大模型:AWPortaint V1.4

正向提示词

Prompt:(three views of character:1.2),(three views of the same character in the same outfit:1.2),1girl,long hair,wear school uniform,a proud and confident smile expression,studio fashion portrait,studio light,pure white background,

提示词:1个女生,长发,穿着校服,带着骄傲自信的微笑表情,工作室时尚肖像,工作室灯光,纯白色背景

反向提示词

ng_deepnegative_v1_75t,(badhandv4:1.2),(worst quality:2),(low quality:2),(normal quality:2),lowres,bad anatomy,bad hands,((monochrome)),((grayscale)) watermark,moles,large breast,big breast,

采样器:DPM++ 2M Karras

采样迭代步数:30

图片宽高:768*512

CFG: 7

高分辨率修复:放大算法Lanczos,重绘幅度0.4 重绘采样步数30

Adetailer插件:脸部模型 face_yolov8n

【第三步】:ControlNet Openpose模型设置

相关参数设置如下:

控制类型:选择"OpenPose(姿态)"

预处理器:none (由于上传的是三视图特征图,这里就不需要再设置预处理器了)

模型: control_v11p_sd15_openpose

【第四步】:图片的生成

相关说明:

(1)使用ControlNet的openpose模型制作的三视图相对来说最稳定,每次都可以出三视图的效果。

(2)这种方式可以实现其他任意视图,不仅仅局限在三视图。

上面分享目前最常用的制作三视图的三种方法,在实际应用中,大家可以综合几种方法一起使用,比如结合实现方式二和三,在不同的场景可能会带来更好的效果。

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

若有侵权,请联系删除

总结

### 文章总结:《三视图制作方法及AIGC技术展望》
#### 三视图制作方式
**一、通过提示词实现**
1. **方法简介**:
- 使用预设的提示词格式来引导AI绘画工具生成三视图。
- 提示词包括正面、侧面、背面给的不同视图描述及主体特征描述。
2. **操作步骤**:
- 编写正向提示词和反向提示词,控制生成图像的质量和风格。
- 设置采样器、采样迭代步数、CFG等参数。
- 运行AI模型,通过大量抽签尝试得到符合要求的三视图图片。
3. **注意事项**:
- 可控性较差,需要大量尝试。
- 提升特定视图提示词的权重可能有助于改善生成效果。
**二、借助三视图LORA实现**
1. **方法简介**:
- 利用LORA(Locally Relevant Activation)模型,在现有大模型基础上进行微调,以优化三视图的生成效果。

2. **操作步骤**:
- 在LiblibAI或相关网站寻找三视图LORA模型。
- 编写所需的提示词,并将LORA权重加入其中。
- 设置模型、采样器、迭代步数等参数。
- 运行AI模型,通过提示词引导生成三视图图像。
3. **注意事项**:
- 三视图视角仍然随机,但成功概率较高。
- 主体姿势较为固定,难以完全控制。
**三、使用ControlNet的Openpose模型**
1. **方法简介**:
- 通过Openpose插件实现对人物姿势的精准控制,生成不同视角下的三视图。
2. **操作步骤**:
- 制作或获取人物三视图的特征图片。
- 选择适当的大模型和编写提示词。
- 设置ControlNet Openpose模型参数,包括控制类型、预处理器和模型选择。
- 运行AI模型,根据Openpose生成的姿态图生成三视图图像。
3. **优势**:
- 稳定性最高,每次都能生成正确的三视图。
- 可实现任意视图,不仅限于三视图。
#### AIGC技术展望
- **广阔前景**:随着人工智能技术的不断发展,AIGC将在游戏、计算等领域得到更广泛应用,系统将更加高效、智能和灵活。
- **学习路径**:文章分享了AIGC领域的学习路线、必备工具、学习笔记、视频教程合集及实战案例,帮助读者系统学习和掌握AIGC技术。
- **融合应用**:AIGC将与人工智能技术紧密结合,在不同领域发挥重要作用,对程序员的影响至关重要。
#### 结语
文章详细介绍了三种实现三视图制作的方法,并结合实际应用场景给出了具体的操作步骤和注意事项。同时,对AIGC技术的未来发展前景进行了展望,为读者提供了全面的学习资源和参考资料,助力读者在AIGC领域不断进步。

更新时间 2024-07-29