当前位置:AIGC资讯 > AIGC > 正文

“喂饭级”教程!建筑AI生成设计Stable Diffusion看这篇就够了!

你最近是否看过这样的“魔法案例”,由一张简单的SU体块图片,快速生成多个设计方案,就像这样:

©绘图空间

而看过之后,你是否也在心里想着——“教练!我要学这个!”

今天我们就将带你入门这种“魔法”的源头——生成式AI工具Stable Diffusion。

01

Stable Diffusion本地部署

Stable Diffusion Local Deployment

Stable Diffusion运行需求©绘****图空间

如果你的电脑满足以上要求,那么就可以进行Stable Diffusion的本地部署了。

下载好整合包之后,你需要将文件解压在全英文的安装路径中,这样将减少后期报错的可能。然后按照以下步骤完成Stable Diffusion本地部署。

具体步骤如下:

待启动器页面弹出后,点击“一键启动”:

首次启动Stable Diffusion可能需要较长的时间,请耐心等待:

当Stable Diffusion界面自动弹出时,就代表着你已经完成其本地部署。

02

WebUI简介

Introduction to WebUI

在使用Stable Diffusion创作之前,我们先熟悉一下Stable Diffusion的界面。

在界面的左上角,你可以选择进行创作的基础模型。

在模型选择的下方,是输入提示词的文本栏。与Midjourney不同的是,Stable Diffusion还拥有一行反提示词文本栏,你可以将不希望呈现在画面中的元素输入进去以贴合创作需求。

对书写提示词有疑问的朋友,可稍后阅读我们的往期文章《建筑方向AI绘图描述词Prompt看这篇就够了!》,相信一定会对你有所帮助。而下方也有我们整理的部分建筑方向常用反向提示词以供参考。

建筑方向常用反向提示词整理©绘图空间

提示词文本栏的下方,是采样方法与迭代步数。其中,采样方法我们不作过多探讨,感兴趣的朋友可以自行查找一些AI方向的研究文章进行了解。我们主要介绍一下迭代步数的意义。

简单的来讲,迭代步数影响的是创作画面的细节丰富程度。迭代步数越多,所产生的细节就越多。

但并非迭代步数越多越好,这需要结合创作项目来进行实际调试。可能有时候迭代步数稍低所生成的图片更能贴合创作需求。所以这是一个经验值,大家因创作而异。

在采样方法与迭代步数的下方,是十分好理解的图片宽度、高度、生成批次、每批数量。

我们着重介绍的是在它们下方的提示词相关性。它控制着产出图片受输入提示词的影响程度。我们一般取值范围在7-15。

提示词相关性的下方,是十分重要的随机种子参数以及ControlNet插件。可以说,正是因为有了ControlNet插件,才使得Stable Diffusion区别于Midjourney等“抽盲盒”式AI生成工具,更能应用于建筑方向实际项目之中。

接下来我们就将通过一个案例来讲解如何入门ControlNet。

03

ControlNet入门

Getting Started with ControlNet

  

我们在AI设计讨论群提供的Stable Diffusion整合包中,已经配置好了ControlNet插件。

而如果有朋友之前已经本地部署了Stable Diffusion,却没有安装ControlNet插件,可以按照以下方式进行安装(该方法也是Stable Diffusion安装插件的通用方法):

Stable Diffusion插件安装流程©绘****图空间

在确保已经安装ControlNet插件之后,你需要将ControlNet的根路径进行更改,具体流程如下:

需要注意的是,该操作需在“科学上网”前提下进行,对“科学上网”有疑问的朋友,可联系我们的客服。

案例教学

case study

下面将通过一个案例介绍如何入门ControlNet。

第1步:填写好提示词与反提示词:

第2步:在SU中搭建一个体块模型,并导出二维图片。

第3步:将导出的SU体块图片拖入到ControlNet中,如下图所示:

第4步:点击enable(启动)按钮。选择preprocessor(预处理方式),并在Model(模型)中选择preprocessor所对应的模型:

第5步:调整权重栏数值,权重越高生成的图片就越贴合我们提供的原始模型图片,具体数值根据实际项目需求进行调整:

第6步:在随机种子栏我们选择默认的-1(对应的是骰子图标),它代表的是本次图片生成将完全随机:

生成批次与每批数量我们分别选择3、4。这样一次我们就能得到12张图片。

第7步:最后点击生成按钮,稍等一会,我们就将得到如下的图片:

©绘图空间

点击单张图片,可以放大对应的作品:

©绘图空间

如果在生成的图片中,有想继续深化的作品,选中它后,在随机种子栏,点击绿色按钮,将获得一段种子代码,此后生成的作品就将基于这个代码进行创作,以保证创作的可控性:

我们获取上图的种子代码,然后在此代码的基础上再进行生成,就会得到如下的图片(我们选择生成4张作品):

©绘图空间

可以看出新生成的作品与我们选中的作品风格、构造都比较接近。

而通过ControlNet插件,我们还可以做到从手绘草图直接生成设计方案:

保持我们上述的提示词、反提示词与各种参数设置不变,直接将手绘图纸拖入到ControlNet中:

点击生成按钮,我们就会得到:

©绘图空间

以上就是在Stable Diffusion中,如何利用ControlNet插件,从SU体块模型、手绘草图直接生成设计方案的方法。

04

总结

Summarize

如果你花了一些时间,认真的阅读了上述内容,最好是在本地部署Stable Diffusion之后,跟着操作了一遍。那么相信你已经成功入门了Stable Diffusion这一建筑方向出图利器。

而与我们之前发布的教程《用AI生成设计图纸,“ChatGPT+Midjourney工作流”看这篇就够了!》相比,本篇的篇幅明显更长一点,而且这还仅仅只是一篇入门级的指导性文章。

因为相较于Midjourney来说,Stable Diffusion需要个人设置的部分更多,有人曾这么简单的形容两者的区别:“Midjourney就像电子产品中的苹果,而Stable Diffusion更像是安卓。两者只是创作方式不同,没有高下之分。”

但对于建筑方向来说,结果更可控的Stable Diffusion显然更受设计师们的青睐。

05

作品分享

work sharing

最近有许多朋友在后台留言,询问AI设计除了可以应用在建筑单体方向上,还有没有别的可能。比如应用于室内设计、城市设计中。

对此我们想说——当然可以!

所以本期的作品分享,除了有建筑单体方向的AI设计作品,我们也收集了一些室内设计、城市设计的作品,与大家共同欣赏:

©小红书****Shutter

©小红书Shutter****

©小红书Shutter****

©小红书Arcai_Vera

©小红书Arcai_Vera

©小红书Arcai_Vera

©小红书叮当当

©小红书尚_なお君

©小红书尚_なお君

©小红书尚_なお君

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

若有侵权,请联系删除

更新时间 2024-06-29