前段时间,后台有网友私信我,说想跟我一起学AI~当时一边开心一边惶恐,满足于被人看到自己的努力、又担心自己是不是教不好别人,毕竟我自己也是业余时间边学边发的那种~
不过,我还是会继续搬运或整理一些我认为值得记录的东西。如果我发的东西,真的有帮到一些人,那这东西就不白发!
A beautiful 18 years old Chinese girl, short hair, walking in the summer reed marshes, in the style of renko kawauchi’s photography::2 , no reflection, rich detail, White chinese dress, sunlight, light, 120mm focal length, ISO400::1 , film grain::3 --niji 6
今天这篇教程,是我认为比较良心且完整、实用性很高的Midjourney教程啦。
我更了5次,终于更完啦!一般来说,一次性看完的可能性不太大,有学习需要的友友们,可以先收藏再学习~
如果能在收藏的同时,给我一个小小的关注,那我能乐开花~嘿嘿~~
适用人群
本篇内容适用于不同基础的人群,能够帮大家快速了解和学会使用Midjourney。
ps:如果你是想教小朋友如何使用,那么不建议进行过多的干预,只要教会他从那么输入命令,以及如何翻译和查阅英文单词,其他让他自由探索就可以啦!(也许你可以给他提供几个创作方向,比如画一套绘本故事之类)
创建MJ服务器
Midjourney目前需要注册并付费订阅才可以使用,最便宜的月费是10刀,不是按图片张数,而是按照生图时间来计算的。10刀是200分钟生图时长。
MJ目前一般用户只能通过discord社区完成生图动作。可以通过MJ的官网注册后进入(注册需要一个邮箱)
通过官网注册并登录,同时即可收到社区准入邀请,页面会跳出“接受邀请”,点击后可以进入MJ的discord社区的界面。
因为同时使用MJ的人太多了,因此我们一般不在大社区内直接生图,太容易被其他人的作品刷过去。可以建一个自己和MJ机器人的服务器,方法就是在discord社区左下角点那个“+”号,选择“亲自创建服务器”,点下面这个“仅供我和我的朋友使用”,并给这个服务器起个名字。
然后在创建好的服务器左上角,点服务器名字,从下拉菜单中选这个“APP目录”,
从出现的页面搜索框中输入“Midjourney”或“Midjourney Bot”,点下面清单中的第1个:
点击这个“添加APP”,就可以创建一个放置你MJ生图作品的服务器啦。
Prompt框架总结
这里有一个v5模型时期,官方汇总的关键词框架。不管你关键词长度多少,它基本是包括以下4个部分:主体、细节&背景、风格&媒介&艺术家、参数:
其实按照官方模板写关键词,你已经能超过 90% 的初学者啦。
这里放一个更加细化的表格,大家可以根据不同场景有选择地使用。
这个模板看起来很长,但它跟各位拍照其实很像(只是顺序做了权重优化),各位想想自己的整个拍照的过程,是不是:
第一步,看到某个物体/人物(主体),在某个环境下(环境)很漂亮第二步,拿出手机(拍摄媒介),打开相机,用手机取景器确定好构图(构图),按下快门
第三步,用美图秀秀或PS处理下(风格 & 参数)
MJ常见问题
本趴主要是翻译的官方Discord FAQ 文章,以及使用过程中的常见问题和解答。对更多内容感兴趣的朋友,可以在官方Discord prompt faqs里找到原文,可搭配翻译软件食用。
4K、HD等所谓的Rendering词有用吗?
官方解释 Rendering 词包括:
Rendering words include 4k, 6k, 8k, 16k, ultra 4k, octane, unreal, v-ray, lumion, renderman, hd, hdr, hdmi, high-resolution, dp, dpi, ppi, 1080p.
有用吗?官方的解释是:
Rendering words do something to your image. They may also be what's breaking your prompt. So, as part of troubleshooting, we recommend removing them. Removing them often fixes issues with blurring, focus, clarity, and coherence.
意思就是会影响,有一定作用,但弊大于利。加入这些词,反而会破坏你的 prompt,特别是一些摄影场景,比如你需要用到诸如背景虚化等效果,再加上 4K 可能就会破坏背景虚化。
顺序影响结果吗?
官方解释:
Word order matters. Early words are generally more influential.
顺序会影响结果,越早出现的词,对结果影响越大。
官方还建议:
①避免列举词语:例举的意思是在 prompt 里写多个同一个意思的词。
②使用具体的相关词语:越具体,生成的图片越符合prompt。
③用句子片段、不要用复杂结构的长句子:就是不要像写雅思作文那样,写定语从句、长难句,而是将这些词切开。
④避免使用 4K、8K、16K 等安慰剂词汇。
词句越长越好吗?
按照 Midjourney 的官方文档里的说法,并不一定。
尽管很多人分享的prompt很长,但只要各位仔细观察,或者用上翻译软件,你会发现这里有一些水分。比如词语拼写错误,因为大家都是直接复制翻译,可能被你看到的被搬运的prompt带有上一位分享人的语法错误,并且这个错误被层层传递——我早起分享的关键词文章中也有一些如此——这也算是新时代的水印了吧。
这其中,有一些词会被重复使用,比如 8k、UHD、Ultra Quality,他们都在说一个事情,就是高清,加多了也不会有叠加作用。其实,有没有一种可能,这些词官方并不推荐使用,相反,这些词甚至可能会对你的图造成破坏(详见 Midjourney 官方 FAQ 一章)
当然,咱也不是说不能写很长的prompt,如果你生成的内容本来就很复杂,那写长一点也没所谓;但对初学者而言,长未必就是适合的,要注意分辨。
用ChatGPT吗?
ChatGPT可以用,但它有一些局限。比如你可能会需要多次沟通来进行调整,有这时间还不如自己写;再就是结合ChatGPT的原理,它能够生出还不错的“普通”的结果,但很难有那种一把子就很惊艳的、超过预期的内容(如果你认为它够惊艳,那只是因为大多数人甚至连普通都打不到,才会震惊于它的效果)
so,如果你想要生成原创惊艳的图,可以用ChatGPT,但靠概率是不行的,你得多来几次,并且要最大限度地放开你的想象力。
如果开始还不知道怎么和ChatGPT配合,可以试试这样两种方式:
第一,你可以让它帮你翻译。句式如:我想要这样那样,请帮我翻译成英文;
第二,风格词提示,如:文艺复兴时期著名的艺术家有哪些?
诸如此类。
Prompt优化技巧
1.临摹
对于MJ新手来说,不建议直接上来记模版和套模板。因为能够“得偿所愿”的关键,有点像学外语时候的“语感”,背后是对设计的理解力和想象力。
我也在之前的文章里提到过,锻炼使用AI画图的过程,和画画一样要先“临摹”再“创作”。不同的是,绘画是用笔临摹线条、调色、笔触等等,而AI绘画时临摹别人的关键词。
2.多实验
如果一段关键词的抽卡结果不是太满意,我们可以对其多做一些局部改造。比如我下面文章里用到的“女海盗”关键词,正好当时MJ新出了sref角色参考功能,于是这段关键词让我玩出了花儿
我修改了句子中的一些外貌或发色的形容词、增加或删减道具词,加不加sref、用哪张垫图、sv后跟什么数字,测试乐趣无限:
当时一部分截图
3.熟练使用垫图
垫图可以让你的结果更稳定,尤其是当你脑中对于想要做出哪种样子的作品,有了一个相对明确的构图或画面时,找到一张类似的参考图,使用cref或sref这一类风格参考或角色参考参数,可以让生图更接近你想要的。
我已经在本账号的很多想法中,发布了很多我自己的尝试,比如下面这张废土场景的初音,就是垫了初音打歌服,用废土风格词汇“造”出的画面:
AI生图
我的垫图
4.善用风格词
比如:年份(如1980s)、显著风格艺术家名字(如毕加索)、国家(尽管都是亚洲人,但Chinese girl、Japan girl、Korean girl的出图风格还是有显著不同)
比如下面这张:
prompt:1990s anime sci-fi flirty female, full detailed eyes, suductive stance, Toriyama, Miyazak --v 6.0
下面这三张关键词相同,仅改变国籍,从上到下依次是中国女孩、日本女孩和韩国女孩:
A 16-year-old Chinese girl in a white dress, with a rapeseed field and a smile, creating a soft and colorful atmosphere --ar 3:4 --v 6.0 --sref https://s.mj.run/zzHvJo2hhZE --sv 2
A 16-year-old Japan girl in a white dress, with a rapeseed field and a smile, creating a soft and colorful atmosphere --ar 3:4 --v 6.0 --sref https://s.mj.run/zzHvJo2hhZE --sv 2
A 16-year-old Korean girl in a white dress, with a rapeseed field and a smile, creating a soft and colorful atmosphere --v 6.0 --sref https://s.mj.run/zzHvJo2hhZE --sv 2
5.使用灯光词
摄影中,常用摄影灯光有以下几种:
主灯 (Key Light):主灯是最基本的摄影灯光之一,通常放置在被拍摄物体的正前方或正侧方,用于照明主体,决定拍摄物体的主要明暗度。主灯通常是亮度最高的灯光。
填光灯 (Fill Light):填光灯用于弥补主灯照射的阴影部分,调整阴影的深浅程度,使照片明亮一些。通常填充光应该比主光暗一些,以避免出现过度曝光 a。
逆光灯 (Back Light):逆光灯用于照射被拍摄物体的背面,能够区别出主体和背景,并使物体轮廓变得清晰,常用于拍摄骨感、重物感和逆光效果的照片等。
环境光 (Ambient Light):环境光就是摄影环境自然产生的光线,包括室内照明、自然光、街灯等,它可以补充被拍摄物体的表面,提升照片的自然度和真实感。
故事性灯光 (Special Light):通常是为了制造出某种情境或者表达某种意义而使用的,例如烛光、亮光等。它们能够产生温暖、浪漫、神秘等场景和气氛,以探索和表达艺术的想象力和创造力。
尝试运用不同的灯光,我们会得到不同气氛的场景图。
尤其是摄影类生图中,灯光可以让画面更有故事感:
6.相机和镜头
在 Midjourney 里,你也可以通过增加相机或者镜头的名称,从而达到类似的效果。
Midjourney中有几大类和相机、镜头有关的类型词:
相机:支持不同种类的相机,比如运动相机 GoPro胶卷:比如 8 mm 电影胶卷
镜头:比如 15 mm 镜头
相机设置:比如长曝光、 双重曝光
景深 & 焦点:比如深景、浅景,还有 消失点
下面是一组表格,基本上常用的相机和镜头类型词语都在下面了:
7.从图反推关键词
Midjourney的“/describe”命令,上传喜欢的图之后,MJ会返给你4组关键词。
当然,抽卡的过程也是非常随机的,enjoy it~
8.善用参数no
这个商用场景下是比较好用的,有点像SD里的负面词,帮助模型规避到不想要的元素。比方说,想做一个单色logo,它主体是一本书,同时因为 Midjourney 对文字不是很擅长,所以还要去掉 text。
以下是prompt,最后加了 no realistic color(没有颜色)text(字):
emblem for a university with large book, vintage --no realistic color text把上面那个 Instant Noodles company 的 prompt 也加了 no text,最后生成的两组图片是这样的(最后需要注意,no 参数在 logo 里使用时,--no text 有的时候会失效,但如果你去掉 — 直接输入 no text 就会生效,很神秘,估计是个 bug)
9.善用参数s
s 是控制生成图片的风格化程度。简单理解,这个值越低,结果会更符合prompt的描述,数值越高艺术性就会越强,但跟prompt本身的关联性就会比较弱。
所以你感觉生成的图不太像,就加大这个值,比如调到s 500、s 750。这里我不得不祭出这张灌篮Iron Man了,文本里用到了s 750:
Marvel's Ironman playing basketball, dressed in Chicago Bulls uniform, Chicago Bulls jersey, realistic perspective, xbox 360 graphics, surreal realism, emotive realism, eerily realistic --s 750 --ar 9:16
10.图片融合
这个功能是我新发现的,一键融合你上传的图像,看起来还挺好玩。
方法非常简单:输入“ /blend”并点击这个菜单:
之后你的输入框就会变成这样:
添加如下图片后点击回车。
会得到下面这样的效果。左边是融合钢铁侠,右边是融合巴斯光年:
这是我看到其他前辈的尝试,回头我也试试~
来自前辈的提醒:这个功能很适合做个性化头像,但可能因为Midjourney喂过不少名人的头像给模型,所以对名人的融合效果更好,个人照片的效果一般。
最后想说
AIGC(AI Generated Content)技术,即人工智能生成内容的技术,具有非常广阔的发展前景。随着技术的不断进步,AIGC的应用范围和影响力都将显著扩大。以下是一些关于AIGC技术发展前景的预测和展望:
1、AIGC技术将使得内容创造过程更加自动化,包括文章、报告、音乐、艺术作品等。这将极大地提高内容生产的效率,降低成本。2、在游戏、电影和虚拟现实等领域,AIGC技术将能够创造更加丰富和沉浸式的体验,推动娱乐产业的创新。3、AIGC技术可以帮助设计师和创意工作者快速生成和迭代设计理念,提高创意过程的效率。
未来,AIGC技术将持续提升,同时也将与人工智能技术深度融合,在更多领域得到广泛应用。感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程。
对于从来没有接触过AI绘画的同学,我已经帮你们准备了详细的学习成长路线图。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。
AIGC学习必备工具和学习步骤
工具都帮大家整理好了,安装就可直接上手
现在AI绘画还是发展初期,大家都在摸索前进。
但新事物就意味着新机会,我们普通人要做的就是抢先进场,先学会技能,这样当真正的机会来了,你才能抓得住。
如果你对AI绘画感兴趣,我可以分享我在学习过程中收集的各种教程和资料。
学完后,可以毫无问题地应对市场上绝大部分的需求。
这份AI绘画资料包整理了Stable Diffusion入门学习思维导图、Stable Diffusion安装包、120000+提示词库,800+骨骼姿势图,Stable Diffusion学习书籍手册、AI绘画视频教程、AIGC实战等等。
【Stable Diffusion安装包(含常用插件、模型)】
【AI绘画12000+提示词库】
【AI绘画800+骨骼姿势图】
【AI绘画视频合集】
这份完整版的stable diffusion资料我已经打包好,点击下方卡片即可免费领取!