在 Stable Diffusion WebUI Forge 版本中内置了一个SVD插件,也就是 Stable Video Diffusion(稳定视频扩散),之前我介绍过这个工具的使用方法:图片生成视频(独立部署SVD)
但是当时还不能集成到Stable Diffusion WebUI中,用起来比较不方便。现在Forge解决了这个问题,并且支持最新的1.1模型,这篇文章就来简单介绍下。
安装
插件是Forge内置的,不需要再次安装。
注意原版的SD WebUI没有这个插件,必须是Forge版本才有。
所以你如果要在WebUI中使用SVD,还需要安装SD WebUI Forge,程序地址:GitHub - lllyasviel/stable-diffusion-webui-forge
或者你可以使用我在AutoDL发布的镜像:
https://www.codewithgpu.com/i/lllyasviel/stable-diffusion-webui-forge/yinghuoai-sd15-webui-forge
使用
这个插件处理风景图片效果比较好,处理人或动物容易出现画面崩溃的情况。
下边是一些参数,我们可以根据自己的需要和实际的生成效果进行调整。
宽度、高度:按照图片尺寸设置即可,也可以设置更小的尺寸,自动裁剪。
Video Frames:是视频的总帧数,每一帧就是一个画面,把这些画面连起来就是视频了。
Fps:每秒帧数,也就是帧率,每一秒播放几个画面。Video Frames/Fps就是视频的时长。
Motion Bucket Id:运动Id,如果感觉视频动作变化太大,调小一点试试。
采样器、调度器:和文生图、图生图中的一样,可以选择自己常用的,注意搭配合适的采样步数。不过默认的一般就挺好了。
随机数种子,相同的种子会生成相同的结果,-1代表每次使用不同的种子。
素材
我测试了一些风景图片素材,还有对应的图生视频模型,你可以在下边的网盘链接中获取到:
链接:https://pan.baidu.com/s/1zPTXNqJu1ecT-af5Cz0cfg?pwd=shiz
提取码:shiz
如有问题,欢迎留言。
总结
**Stable Diffusion WebUI Forge内置SVD插件简介**在Stable Diffusion WebUI Forge版本中,用户迎来了一项重大更新——内置的Stable Video Diffusion(SVD)插件,实现了图片到视频的转换功能。这解决了之前需独立部署SVD的不便,现可直接在WebUI中操作,同时还支持最新的1.1模型版本。以下是对该插件安装、使用及素材获取的简明总结。
**安装**
- **内置设计**:SVD插件作为Forge版本的一部分,无需额外安装。需注意,原版SD WebUI不包含此插件,必须安装Forge版才能使用。
- **程序下载**:提供GitHub直接下载地址`GitHub - lllyasviel/stable-diffusion-webui-forge`,或使用作者在AutoDL发布的预配置镜像:`https://www.codewithgpu.com/i/lllyasviel/stable-diffusion-webui-forge/yinghuoai-sd15-webui-forge`。
**使用**
- **适用效果**:SVD在处理风景图片时表现优异,而在生成人或动物视频时可能遭遇画面不稳定的问题。
- **参数调整**:
- **尺寸**:宽度和高度按图片实际尺寸设定,也支持小尺寸裁剪。
- **帧率控制**:Video Frames决定视频总帧数,而Fps代表每秒帧数,两者共同影响视频时长。
- **运动调整**:Motion Bucket Id可微调视频动作变化的流畅度,减小值以减轻突变。
- **采样与调度**:如同文图生成,可选择常用采样器和调度器,尽量搭配合适的采样步数,默认设置已很优化。
- **随机数种子**:用于复现视频效果,-1表示每次使用新种子以获得不同结果。
**素材资源**
- **测试素材包**:包含风景图片及图转视频专用模型,可供用户下载后测试使用。
- **下载链接**:百度网盘`https://pan.baidu.com/s/1zPTXNqJu1ecT-af5Cz0cfg?pwd=shiz`,提取码`shiz`。
欢迎用户体验SVD新功能,并针对使用过程中遇到的任何问题留言交流。