-
神奇的交融竟意外的好用!在PS中玩转Stable Diffusion的插件!
前言 用过PS的各位AI大师们,是否曾闻及并涉足SD(Stable Diffusion)领域?这两款软件各自独立而庞大,在今年AI浪潮的冲刷下,似乎难以忽视SD这款强大而高度可控的AI软件。 一、插件介绍 在设计师的创作中,PS几乎是不可或缺的工具...
-
超算互联网-Stable Diffusion 2.1文生图教程
一、名词简介 1. 超算互联网 超算互联网是一种基于云计算的高性能计算平台,用户可以通过互联网接入超级计算资源。它集成了大量的计算节点,提供强大的计算能力,适用于科学计算、深度学习、人工智能等领域。用户可以利用超算互联网平台运行复杂的模型和算法,显...
-
没想到我还要求着AI动起来(Stable Diffusion进阶篇:ComfyUI SVD图片转视频)
前言 在上一篇文章中讲到了如何下载安装ComfyUI,目的就是为了今天的图片转视频,毕竟上次的Gen2让我的钱包不是很满意。 当然如果完全没接触过ComfyUI或者WebUI看这期视频跟着操作也是可以的,前提是得先下载安装好 本文涉及的工作流和插件...
-
【人工智能】如何选择AI绘画工具?Midjourney VS Stable Diffusion
文章目录 🍊如何选择合适的AI绘画工具 个人需求选择 比较工具特点 社区和资源</font> 🍊 Midjourney VS Stable Diffusion:深度对比与剖析 使用费用对比 使用便捷性与系统兼容性对比 开源与闭...
-
入职一年半,这个AI员工晋升为了国内首位AI架构师
你敢想,AI 已经不满足只做程序员了,如今又向架构师这一进阶职业发起挑战。 随着 AI 在研发领域的不断进化,能提供给工程师的助力越来越多,从原先单纯的编码加速器不断延展到架构理解、质量分析、安全扫描、测试生成等更多领域。同时结合 RAG 技术的不断落地应...
-
揭秘LoRA:利用深度学习原理在Stable Diffusion中打造完美图像生成的秘密武器
文章目录 引言 LoRA的原理 LoRA在角色生成中的应用 LoRA在风格生成中的应用 LoRA在概念生成中的应用 LoRA在服装生成中的应用 LoRA在物体生成中的应用 结论 引言 在生成式人工智能领域,图像生成模型如Sta...
-
智谱AI刚刚把他们的Sora「清影」,正式开源了,我爱他们。
大半夜的,大洋对岸不卷,国内公司卷起来了。 我真的想睡觉,真的。 起因是我睡觉之前,在看Github的时候,无意间看到THUKEG这个号,更新了一个项目。 CogVideoX。 网址在此:https://github.com/THUDM/CogVideo...
-
图像生成新模型FLUX1对比Midjourney V6,到底谁更强?多场景实际测试对比
🍟背景介绍 如果想简单了解下FLUX1模型的基础内容,或者想要自己上手下载模型尝试下,可以看我上一篇内容,包含了模型的简单介绍和下载地址,以及如何在comfyui中做测试: 哦吼,新模型?文生图领域的新模型FLUX.1(附模型下载网盘地址和详细使用方法...
-
媲美Midjourney-v6,Kolors最新文生图模型部署
Kolors模型是由快手团队开发的大型文本到图像生成模型,专门用于将文本描述转换成高质量的图像。 Kolors模型支持中英文双语输入,生成效果与Midjourney-v6相媲美,能够处理长达256个字符的文本输入,具备生成中英文文字的能力。 Kolor...
-
AI绘画SD常用的优秀模型
目录 LoRA模型在AI绘画中的具体应用和效果如何? ControlNet模型在图像编辑和创作中的精细控制能力有哪些实际案例? Hypernetwork模型如何根据不同输入生成适合特定任务的网络结构? Civitai模型平台提供的高质量模型种类...
-
Stable Diffusion【真人模型】:SD1.5人像模型新高度,超级逼真的AI真人模型:AWPortaint
今天和大家分享一个基于SD1.5基础模型训练的人像大模型AWPortrait。该模型在真人写实摄影方面效果超级逼真,能够模拟在真实摄影中的光影效果、皮肤纹理质感、甚至是人物的表情和妆容。 目前最新的版本是V1.4,在V1.3版本的基础上升级而来,对大模型...
-
AI绘画教程:Stable Diffusion中如何控制人像的姿势?
在AI绘画中,有时候我们需要主角(人物或动物)摆出特定的姿势,该怎么做呢? 第一种方法:以图生图 打开Stable Diffusion界面,点击imag2img 下面出现一个”drop image here or click to upload”...
-
AI绘图赚钱,普通人用Stable diffusion 还是Midjourney,他们有什么区别?
给大家用2000字说一下Stable Diffusion 和Midjourney 从前期部署→到操作生成→再到效果及应用,为你分析两者之间的区别。 SD控制性极强,可高度自定义,难度大,完全免费。 MJ对小白非常友好,图片质量高,模型有限,插件少,控制...
-
AI+视频娱乐平台大盘点,谁会成为下一个“Netflix”
故事,是对现实的剖析和重构。讲好一个故事,需要创造性地把素材组织起来。在 AI 时代,一个好的故事又将如何被呈现出来呢? 今年,是视频生成类产品爆发式增长的一年。在AI生成的视频中,我们看到创作者在用一种新的方式讲述着自己的故事。 同样,AI 视频内容...
-
【教程】AI绘画里程碑-Midjourney“人物一致性”来了,让你的绘本人物形象统一起来
被人们诟病的Midjourney人物不能一致性问题解决了。 你知道怎么操作了吗?是不是彻底解决了呢? 开来看看效果: 这一次更新的是测试版本,可能会出现生成的图和参考图不一致,但也是有里程碑意义,相信正式版本发布会好很多。 下面详细介绍...
-
stable diffusion 插件篇(1)
前言: 首先要讲解的第一个超强插件是controlnet,跟着一起学习的小伙伴应该知道,如果仅是仅凭文生图或者是图生图的功能,想要生成的图片如自己所愿是比较有困难的,但是在sd里面,插件controlnet是可以做到帮助我们控制生图的,并且掌握contr...
-
图生视频,Stable Diffusion WebUI Forge内置SVD了!
在 Stable Diffusion WebUI Forge 版本中内置了一个SVD插件,也就是 Stable Video Diffusion(稳定视频扩散),之前我介绍过这个工具的使用方法:图片生成视频(独立部署SVD 但是当时还不能集成到Stabl...
-
一次性生成5个8秒视频,用AI做抖音短视频不是梦?
最近的AI视频赛道,在玩法上“卷”出了新高度。 有用户用它完善视频细节: 还有人用它创作了科幻大片: 甚至让马斯克微笑点头: 还有大鱼吃小鱼,实现普通摄像头难以拍摄的效果: 较强的灵活性和视频可控性,一下让人难以分辨虚实,而这些镜头都是靠爱诗科技的...
-
记录midjourney动漫角色设计提示词
文章目录 前言 一、风格测试,不同的风格在同一个词组下的体验 二部分提示词使用说明 三附加一组设计好之后的动漫角色图片 总结 前言 最近从研究comfyUI到 midjourney 生图,一并研究了一下对应的角色生成提示词语...
-
Midjourney 升级了!揭秘个性化微调功能:一篇文章带你深入了解
大家好,我是花生,这里是我们共同探索 AI 的平台~ 最近几个月,Midjourney 没有大规模更新,自从今年二、三月份推出风格参考(style reference)和角色参考(character reference)之后,直到昨天才发布了两项新内容:...
-
Stable Diffusion工作原理一篇文章带你详解!
前言 翻译自How does Stable Diffusion work? 1. SD能做什么 最基本的功能是:文生图(text-to-image) SD以文字提示为输入,输出与提示相配的图像 2. 扩散模型 SD属于扩散模...
-
AI绘画之SD从入门到放弃--Lora模型
大家好,我是卡狄。 昨天我们共同学习了Stable Diffusion的UI界面和提示词的写法,最简单的文生图已经算基本掌握了。 今天我们在优化一下,加上Lora模型来尝试一下会有什么不一样的效果。 01 认识Stable Diffusion的几种...
-
Stable Diffusion模型越大越好吗?快来拯救你的内存和磁盘
如果你经常使用 Stable Diffusion 绘图,是否注意到很多大模型文件的大小各有不同,有2G的、4G的、还有8G的,这些模型占用了大量的磁盘空间,特别是租用云服务器的有限免费空间;有些模型的作者或者使用者会说模型文件越大越好,越大出图越精细,真的...
-
解决方案评测|通义万相AI绘画创作【阿里产品系测评】
文章目录 解决方案评测|通义万相AI绘画创作 一、活动参与及部署体验 二、针对通义万相AI绘画创作方案的详细评测反馈 1)资源部署及场景API调用体验过程是否得到足够的引导,操作是否顺畅? 2)该方案是否满足您的需求? 3)针对业务场景,该...
-
Stable Diffusion保姆级安装指南!(附2024安装包)
软件下载 [软件名称]:Stable Diffusion 4.8 [软件大小]:16.45G [安装环境]:Win10~Win11或更高 [下载通道]: 软件介绍 Stable Diffusion v4.8简称SD是目前最火的...
-
【SD教程】全网最详细的AI绘画提示词语法讲解!(附提示词插件包)
AI绘画提示词如何写?对于入门的小伙伴来说这是一个大问题,提示词写的好,才能有高质量的作品,那今天给大家详细讲解一下,建议点赞收藏! 文末附提示词插件 一、SD提示词基础 AI绘画提示词基本规则 1、提示词(prompt)由多个词缀构成。 提...
-
【从零开始AI绘画5】StableDiffusionWebUI的clip skip以及ENSD设定
文章目录 clip skip和ENSD clip skip设定为2,ensd设定为31337 clip skip和ENSD 在初期本人并没有设定这两项,只是在不断的学习(copy)别人的提示词后发现,即使使用了相同的参数种子模型...
-
Stable Diffusion能让图片也能开口说话?别惊讶!用SadTalker插件,一键生成自己的数字人(附资料)
最近数字人越来越火,连互联网大佬都纷纷下场,比如360的周鸿祎,京东的刘强东等等。小伙伴可能也想拥有自己的数字人,于是我问了一下kimi,得到的回答如下: 可以看到,如果想用最简单的方式,那么可以用第三方的网站,例如 HeyGen平台、腾讯的智影等等...
-
Midjourney如何实现多人物一致性(简易版)
做AIGC相关领域实习的一个多月里,接触到了很多AI工具。AI工具高效而聪明,但囿于技术的限制,在使用过程中仍然存在一些问题。 作为ai绘本制作者,使用Midjourney绘图时如何保持人物一致性就是一个困扰我许久的难点。经过反复尝试,或许有一些小办法可...
-
百变背景:万相实验室AIGC电商图片可控生成技术
✍🏻 本文作者:云芑、因尘、岁星、也鹿 1. 背景 随着AI生成内容(AIGC)技术如Diffusion的飞速进展,现如今,大家已能够轻易地使用Stable Diffusion(SD)[1]等文生图的模型或工具,将心中所想仅凭语言描述(...
-
Stable Diffusion 入门教程之参数详解(下)
1. 介绍 上一文中《Stable Diffusion 入门教程之参数详解(上)》对 Stable Diffusion 绘图的常用基础参数进行了解读,本文将继续深入探讨Stable Diffusion绘图的进阶参数,这些参数为...
-
万字长文破解 AI 图片生成算法-Stable diffusion (第一篇)
想象一下:你闭上眼睛,脑海中构思一个场景,用简短的语言描述出来,然后“啪”的一声,一张栩栩如生的图片就出现在你眼前。这不再是科幻小说里才有的情节,而是Stable Diffusion——一种前沿的AI图片生成算法——所带来的现实。在本系列的万字长...
-
Stable Diffusion 3 ComfyUI基础工作流保姆级详解 | 全网最全SD3解析
引言 Stable Diffusion 3 已经发布!就在 6 月 12 日,Stable Diffusion 3 的媒体模型终于开放下载。虽然在 Web UI 上还没有提供体验可以体验的方式,但我们已经可以通过Comfy UI来尝试最新的 Stable...
-
Stable Diffusion 3架构解析
在台湾举办的台北国际电脑展上,Stability AI CTO 兼联合 CEO Christian Laforte 与 AMD CEO 苏姿丰一起宣布文本到图像生成模型 Stable Diffusion 3 将于 6 月 12 日开源。 一、扩散模型的...
-
从头开始学习扩散模型 Stable Diffusion
今天我们来揭开 Stable Diffusion 技术的神秘面纱。 1.稳定扩散原理 Stable Diffusion 在2022年发表,一种基于Latent Diffusion Models的新兴机器学习技术。它基于扩...
-
第一批正在被AIGC重置的行业有话说
AIGC颠覆一切的时代,设计行业绝对是被影响最大的那一波。 阿里一位从业近20年的老·设计师站出来说,AI2.0时代来临后,很多不了解设计行业的人,上来就问他带的设计团队要减多少人。 他说说实话,自己心里面有点不舒服。 “大家为什么会这么理解?”老·设计师...
-
AI绘画Stable DIffusion 室内设计—普通人秒变精装设计师,轻松接单!
AI 绘画赚 300 块不算多,但只用了10分钟。 大家好,我是灵魂画师向阳 一直以来精装设计师对专业特别是美学的把握,是我们普通人无法启迪的。但是AI时代来了,普通人只要把房子毛坯的照片交给AI绘图工具,10分钟轻松就能完成100套精装设计方案。...
-
强烈推荐!12 组超惊艳的 Midjourney 风格提示词!
前言 Midjourney 的 --sref random 随机风格功能推出之后,出现了很多对不同代码生成效果的探索。今天就为大家推荐 12 组我觉得非常惊艳的风格代码,将它们添加在提示词中,不需要写复杂的关键词就能得到高质量的指定风格,并且效果非常稳...
-
AIGC专栏12——EasyAnimateV3发布详解 支持图&文生视频 最大支持960x960x144帧视频生成
AIGC专栏12——EasyAnimateV3发布详解 支持图&文生视频 最大支持960x960x144帧视频生成 学习前言 项目特点 生成效果 相关地址汇总 项目主页 Huggingface体验地址 Modelscope体验地址 源...
-
AI绘画Stable diffusion最强大的功能:ControlNet插件详解
大家好,我是程序员晓晓 在之前的几篇文章中我已经陆续地介绍过Stable diffusion的一些基础功能,接下来要介绍的是Stable diffusion中稍微难一点的,但同时也是比较实用的功能:ControlNet。 简单来说,ControlNet...
-
3分钟教你如何使用即梦AI实现最近爆火的老照片修复AI视频
在目前的AI复活老照片中,快手的可灵AI算是一个炙手可热的选手,但也因为它的火爆,导致很多人都在排队,也没法体验可灵AI的功能,不过既然是AI图生视频,像国内的即梦AI在老照片视频也有很好的效果。 所以接下来就让我们来看看怎么使用即梦AI复活老照片吧!...
-
AIGC最新资讯收集
阿里免费的 AI 创意海报生成工具—— ModelScope 魔搭社区 PosterGenius 魔搭(ModelScope)是阿里达摩院重磅推出的一个 AI 模型社区。里面有众多开源模型,还有很多开箱即用的在线 Demo。 比如前段春节期间的用的比较...
-
Stable Diffusion本地化部署详细攻略
一、硬件要求 内存:至少16GB 硬盘:至少60GB以上的磁盘空间,推荐SSD固态硬盘 显卡:推荐NVIDIA显卡 显存:至少4GB Stabl Diffusion因为是在本地部署,对显卡的要求比较高,如果经济能力可以的话,建议购买一块性能较好...
-
AI绘画Stable Diffusion到底有几个版本?超全SD历史发布版本优缺点解析
大家好,我是设计师阿威 Stable Diffusion 在推出短短两年间已经发布了多个版本,最为人熟悉的就是 Stability AI 推出的 1.5 和 SDXL。那么除此之外,还有哪些版本呢?让我们从最初 Stable Diffusion 的起源开...
-
国产动漫视频AI火了!二次元老婆随意捏,哥特、梦幻、机甲一键get
【新智元导读】视频生成赛道又起新秀,而且还是二次元定制版!稳定产出电影级画面,一键文/图生成视频,即使是「手残党」也能复刻自己喜欢的动漫作品了。 现在,各位二次元萌新们,不用再等「太太」出图啦! 我们不仅可以自己产粮,而且还是会动的那种。 如今,AI视频生...
-
Stable Diffusion 绘画入门教程(webui)-ControlNet(IP2P)
上篇文章介绍了深度Depth,这篇文章介绍下IP2P(InstructP2P), 通俗理解就是图生图,给原有图加一些效果,比如下图,左边为原图,右边为增加了效果的图: 文章目录 一、选大模型 二、写提示词 三、基础参数设置 四、启用C...
-
Midjourney平替:7款国内最火AI绘画工具,你不可不试!
在近年来,人工智能技术发展迅猛,尤其是在创意和艺术领域,AI绘画开启了一扇通往未知世界的大门,让我们得以窥见未来艺术的无限可能。 国外如Midjourney、DALL·E 3、stablediffusion等AI绘画工具因其强大的功能成为行业的热点,但是...
-
2024年最新Stable Diffusion本地化部署详细攻略,手把手教程(建议收藏!!)_stable diffusion 本地部署
今天有网友问到SD本地部署的攻略,我找到以前收集的资料发出来分享给大家,希望对大家有帮助! Stable Diffusion本地化部署详细攻略 一、硬件要求 内存:至少16GB 硬盘:至少60GB以上的磁盘空间,推荐SSD固态硬盘 显卡:推荐NV...
-
深度测评:SD3模型表现如何?实用教程助你玩转Stable Diffusion 3 ,最强SD3模型使用攻略,附ComfyUI实操SD3模型到底如何?StableDiffusion3全面评测!
深度测评:SD3模型表现如何?实用教程助你玩转Stable Diffusion 3 ,最强SD3模型使用攻略,附ComfyUI实操 SD3模型到底如何?StableDiffusion3全面评测!如何使用ComfyUI遍历题词 | 模型? 大家好...
-
文生图算法原理:从扩散模型到Stable Diffusion
导读 Stable Diffusion是扩散模型的一种实现。传统的扩散模型(如DDPM)的做法是在像素空间预测预测噪声图noise_t,输入是每一步的图片image_t和代表step的Time embedding,然后在图片image_t上减去模型预测...