当前位置:AIGC资讯 > AIGC > 正文

超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)

超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)

一、简介 1.1 AI绘图 1.2 Stable Diffusion 1.2.1 原理简述 1.2.2 应用流程 二、AI绘图工具 2.1 吐司TusiArt 2.2 哩布哩布LibLibAI 2.3 原生部署 三、一键即用 3.1 开箱尝鲜 3.2 模型关联 3.3 ControlNet 四、总结

一、简介

1.1 AI绘图

AI绘图就是输入一些描述语句(文生图)或者图片(图生图),AI根据输入信息可以生成创意画作。AI绘图是当下AI最火热的应用领域之一,也是生成式人工智能AIGC的一种。

常见AI绘图软件如下:

(1)文心一格

文心一格是基于百度飞桨和文心大模型的文生图系统,是一种AI艺术和创意辅助平台。通过文心一格智能生产多样化创意图片,并从中汲取创意灵感,打破创意瓶颈。

(2)Midjourney

Midjourney可根据文本生成图像,于2022年7月12日进入公开测试阶段,只需要通过输入关键字,就能透过AI算法生成相应的图片,Midjourney里有众多画家的艺术风格,例如达芬奇、达利和毕加索等,还能识别特定镜头或摄影术语。

Midjourney的应用场景非常广泛,可以用于海报、IP设计、广告设计、创意设计、艺术教育、漫画创作等领域。

(3)Adobe Firefly

萤火虫(Firefly),是2023年3月22日Adobe推出的创意生成式AI,使用文字来生成图像、音频、插图、视频和3D图像。Firefly将提供构思、创作和沟通的新方式,同时显著改善创意工作流程。

(4)Stable Diffusion

Stable Diffusion是一种基于潜在扩散模型(Latent Diffusion Models)的文本到图像生成模型,能够跟进任意文本输入生成高质量、高分辨率、高逼真的图像。相对传统的生成模型,Stable Diffusion生成的图像质量更高、速度更快、成本更低。

1.2 Stable Diffusion

本文主要基于Stable Diffusion进行分享,因为↓

1.2.1 原理简述

从名字Stable Diffusion就可以看出,这个主要采用的是扩散模型(Diffusion Model)。简而言之,扩散模型就是去噪白编码器的连续应用,逐步生成图像的过程。

Diffusion 的含义本质上就是一个迭代过程。扩散是反复在图像中添加小的、随机的噪声,而扩散模型则与这个过程相反,将噪声生成高清图像,训练的神经网络通常为U-net。

1.2.2 应用流程

流程主要分为4步:

选择正确地模型 输入准确的提示词 参数调整 后期处理技术

(1)关于模型

Stable Diffusion模型主要分为大模型和微调模型。常见的大模型为Checkpoint(ckpt)和safetensors两种格式,通常是通过Dreambooth训练得到,特点是出图效果好,但是训练过程较慢且生成的模型文件较大;而微调模型一般需要配合大模型使用,常见包括Lora模型、VAE模型、Embedding模型和Hypernetwork模型。

本文分享主要是基于Lora模型。Lora直译为大语言模型的低阶适应。Lora文件大,保存的信息量大 ,对人物的还原、动作的指定和画风的指定效果比较好。

(2)关于提示词

Stable Diffusion提示词分为正向提示词和反向提示词,一般需要包含【画面质量】+【画面风格】+【画面主体】+【画面场景】+【其它元素】。

二、AI绘图工具

2.1 吐司TusiArt

吐司Tusi.Art是一款基于Stable Diffusion的AI图片生成平台,每天有100算力点、即可生成100张图片,且可以高清下载。

2.2 哩布哩布LibLibAI

LiblibAI基本 1:1 还原了Stable Diffusion跑图界面(有一定阉割),跑图最一目了然、简洁高效的界面,且非常容易上手。另外,LiblibAI每天也可以免费跑100张AI图,后续演示主要基于LiblibAI进行。

2.3 原生部署

本地或云端部署原生Stable Diffusion,例如阿里云云部署↓。

三、一键即用

3.1 开箱尝鲜

注册登录哩布哩布LibLibAI后,直接点击【在线生图】

进入到【在线生图】页面后,直接点击【生成图片】,开箱尝鲜。

3.2 模型关联

在主页选择一个参照模型,点进去。

点击【加入模型库】,然后鼠标移动到模型的【生成信息】,复制其中的正向提示词、反向提示词以及采样方式到【在线生图】页面中。

在【在线生图】中,CV好【生成信息】后点击【生成图片】。

如果发现脸变形有崩掉的情况,则需要调大生成图片的的宽度和高度。因为每张图片都有尺寸大小,尺寸不够且需要的元素太多就容易挤在一起导致图片崩坏。

3.3 ControlNet

ControlNet是一种神经网络概念,就是通过额外的输入来控制预训练的大模型。SD中的ControlNet插件可以通过模型精准的控制图像生成,比如:上传线稿让AI控制人物的动作姿态、边缘检测、柔和边缘和涂鸦乱画等等。

如下是一个涂鸦乱画的示例(首先需要上传一张ControlNet参考图):

上传后选择 Scribble 的Control Type,然后点击爆炸图标。

填入提示词(想象力):[A hot air balloon is floating in the sky and the full appearance of the balloon can be seen. ],然后点击【生成图片】

四、总结

至此,超强满血不收费的AI绘图教程来了(在线Stable Diffusion一键即用)介绍完成,后续会陆续输出更多AI绘图相关的篇章;查阅过程中若遇到问题欢迎留言或私信交流。

更新时间 2023-11-08