-
每日AIGC最新进展(55):清华大学提出Pose引导视频生成模型、佐治亚理工学院提出消除扩散模型中的偏见影响、卡耐基梅隆大学提出多物体控制视频生成模型
Diffusion Models专栏文章汇总:入门与实战 GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models 在这项研究中,我们介绍了一个名为G...
-
AIGC-视频生成-AnimateDiff-基于T2I模型的动态生成论文详细解读
AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning 代码:https://github.com/guoyww/a...
-
Gaussian Splatting+Stable Diffusion进行3D场景编辑!腾讯提出TIP-Editor新框架!
Gaussian Splatting+Stable Diffusion进行3D场景编辑!腾讯提出TIP-Editor新框架! 原创 小源 数源AI 2024-01-29 20:19 浙江 数源AI 知识星球 数源AI论文推荐知识星球(每日最新论文及资...
-
【Stable Diffusion】来了来了!属于SDXL的ControlNet模型它终于来了!
千呼万唤始出来!就在昨天,WebUI的ControlNet1.1.4版本终于更新,这次的更新支持了SDXL1.0的模型。我怀着兴奋的心情,打开了网站开始下载模型。这次总共出了四种控制类型,分别是Canny、Depth、Sketch和Openpose。 来...
-
从论文中看AI绘画
个人博客:Sekyoro的博客小屋个人网站:Proanimer的个人网站 主要看是看Diffusion Models,CLIP,ControlNet,IP-Adapter这种经典论文,尝试总结论文写作的一些方式以及图像生成模型的一些内在思想. 对于其中的数...
-
AtomoVideo官网体验入口 AI图像生成视频工具免费下载地址
AtomoVideo是一个新颖的高保真图像到视频(I2V)生成框架,可以从输入图像生成高保真视频。与现有工作相比,它实现了更好的运动强度和一致性,并且无需特定调整即可与各种个性化T2I模型兼容。 点击前往AtomoVideo官网体验入口 谁可以从Atom...
-
【AIGC-图片生成视频系列-6】SSR-Encoder:用于主题驱动生成的通用编码器
目录 一. 贡献概述 二. 方法详解 a 训练阶段 b 推理生成阶段: 三. 综合结果 四. 注意力可视化 五. 选择性主题驱动图像生成 六. 人体图像生成 七. 可推广到视频生成模型 八. 论文 九. 个人思考 稳定扩散(S...
-
ai舞蹈破解版免费下载地址 MagicDance视频生成AI软件在线体验入口
MagicDance是一种创新而高效的方法,可生成逼真的人类视频,实现生动的动作和面部表情转移,以及一致的2D卡通风格动画零调优生成。通过MagicDance,我们能够精确生成外观一致的结果,而原始的T2I模型(如稳定扩散和ControlNet)很难准确地...
-
【AIGC-文本/图片生成视频系列-9】MagicVideo-V2: 多阶段高美感视频生成
目录 一. 项目概述与贡献 二. 方法详解编辑 三. 文本生成视频相关结果 四. 与其他方法对比结果 五. 个人感悟 最近得益于扩散模型的快速发展,文本到视频(T2V)模型的激增。 今天要介绍的是字节的MagicVideo-V2,一个新颖...
-
拳打Gen-2脚踢Pika,谷歌爆肝7个月祭出AI视频大模型!首提时空架构,时长史诗级延长
AI视频赛道上,谷歌又再次放出王炸级更新! 这个名为Google Lumiere的模型,是个大规模视频扩散模型,彻底改变了AI视频的游戏规则。 跟其他模型不同,Lumiere凭借最先进的时空U-Net架构,在一次一致的通道中生成整个视频。 具体来说,现有...
-
【AIGC】AnimateDiff:无需定制化微调的动画化个性化的文生图模型
前言 Animatediff是一个有效的框架将文本到图像模型扩展到动画生成器中,无需针对特定模型进行调整。只要在大型视频数据集中学习到运动先验知识。AnimateDiff就可以插入到个性化的文生图模型中,与Civitai和Huggingface的文生图...
-
AIGC原理:扩散模型diffusion综述一:面向视觉计算的扩散模型研究进展
论文地址:State of the Art on Diffusion Models for Visual Computing ? 贴一幅SGM(Score-based Generative Model)的原因是宋飏博士将他2019年提出的SMLD模型和20...
-
AIGC之Image2Video(一)| Animate Anyone:从静态图像生成动态视频,可将任意图像角色动画化
近日,阿里发布了Animate Anyone,只需一张人物照片,结合骨骼动画,就能生成人体动画视频。 项目地址:https://humanaigc.github.io/animate-anyone/ 论文地址:https://ar...
-
stable-diffusion-webui 中 Controlnet 使用说明
文章目录 1. 安装 自动安装 手动安装 2. 启用 Controlnet 3. 配置 Controlnet 4. 预训练模型区别 5. 多 ControlNet 组合应用 6. 参数介绍 7. 版本对比 Reference...
-
新AI框架DreamSync:结合图像理解模型的反馈 改善文本到图像合成
来自南加州大学、华盛顿大学、巴伊兰大学和谷歌研究团队的研究人员推出了DreamSync,这是一种新型人工智能框架,致力于解决扩散型文本到图像(T2I)模型中对齐和审美吸引力的问题,而无需进行人工标注、修改模型架构或使用强化学习。 DreamSync的方法是...
-
Stablediffusion模型diffusesr格式和ckpt格式相互转换
参考资料: diffusers的源码 [github] 因为小博客可能看的人很少,所以我写的啰嗦一点,想直接看如何互相转换的朋友可以直接转到文末的代码段。 当你在学习Stablediffusion这个开源的t2i模型时,不...