当前位置:AIGC资讯 > AIGC > 正文

每日AIGC最新进展(23):魁北克人工智能研究所提出扩展注意力机制视频编辑、浙江大学提出video-to-Audio生成算法Frieren、清华大学提出扩散模型参数高效迁移学习Diff-Tuning

 Diffusion Models专栏文章汇总:入门与实战

Temporally Consistent Object Editing in Videos using Extended Attention

本文提出了一种用于视频编辑的新方法,旨在通过扩展注意力机制实现视频中对象编辑的时间一致性。该方法基于预训练的图像修复扩散模型,通过重新设计模型的前向路径,将自注意力模块替换为扩展注意力模块,创建帧级依赖关系,确保编辑信息在所有视频帧中保持一致性。这与以往的方法相比,无论遮罩区域的形状和位置如何,都能实现更好的一致性。

研究者们利用了文本到图像扩散模型Stable Diffusion(SD&#

更新时间 2024-06-15