AI 绘画进化的速度真的真的是太快了!!最近爆火的新一代生成模型 LCM 席卷而来,可以大大的提升出图效率。
今儿我们就来一起尝尝鲜!
一 LCM 简介
LCM 全称 Latent Consistency Models(潜在一致性模型),是清华大学交叉信息科学研究院研发的一款生成模型。
它的特点是可以通过少量步骤推理合成高分辨率图像,使图像生成速度提升 2-5 倍,需要的算力也更少。
官方称 LCMs 是继 LDMs(Latent Diffusion Models 潜在扩散模型)之后的新一代生成模型。
如果之前有了解过 Stable Diffusion 的出图过程,我们应该知道 Stable Diffusion 的出图过程其实是从一张纯噪声图中去噪点,最后变成一张清晰的图片,这大概需要 20-50 步(也就是我们设置的步数)
而 LCM 强调的是不要再一步步迭代了, 直接追求“一步到位”。LCM 是在 Consistency Models 的基础上引入了 Lantent Space (潜空间),进一步压缩需要处理的数据量,从而实现超快速的图像推理合成。只需要 2-4 步即可完成!
可以先来看看效果图:
4 步效果图
2 步效果图
1 步效果图
二 尝鲜使用
目前有三种玩法,大家可以挑选使用
直接在线把玩(科学上网)
文生图:https://huggingface.co/spaces/SimianLuo/Latent_Consistency_Model
图生图:https://replicate.com/fofr/latent-consistency-model
基于 Dreamshaper-V7 大模型使用
目前官网只提供了 Dreamshaper-V7 和 LCM-SDXL 是 2 款可以 Stable Diffusion 中使用的模型。并且需要安装 LCM 插件。
插件地址:https://github.com/0xbitches/sd-webui-lcm
模型地址:https://huggingface.co/SimianLuo/LCM_Dreamshaper_v7/tree/main
lcm-sdxl: https://huggingface.co/latent-consistency/lcm-sdxl
基于 LCM-LoRA 使用
除了上述的大模型,官方还提供了一个 LoRa 模型,目前可以搭配 SD1.5 和 SDXL 的所有大模型使用,
目前可以在 ComfyUI 和 Fooocus 中使用 LCM-LoRA 模型
SD1.5 lora: https://huggingface.co/latent-consistency/lcm-lora-sdv1-5
sdxl lora: https://huggingface.co/latent-consistency/lcm-lora-sdxl
在使用了 LCM 后整个的出图效果确实大大的提升了,但是质量来看还是会差那么一些。
目前尝鲜,还是可以玩玩的,后续 LCM 有了更多的增强我们在进一步来分享!
如果你觉得教程还不错,别忘了把好内容分享给身边的小伙伴哦 ?
写在最后
感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。
AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。
一、AIGC所有方向的学习路线
AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。
二、AIGC必备工具
工具都帮大家整理好了,安装就可直接上手!
三、最新AIGC学习笔记
当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。
四、AIGC视频教程合集
观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
五、实战案例
纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。