项目简介
MOFA-Video是一款基于Pytorch的官方实现,专注于通过生成性运动场适应技术在冻结的图像到视频扩散模型中实现可控制的图像动画。该项目的核心在于运用稳定视频扩散模型,引入ControlNet灵感的MOFA适配器,使得用户能够根据多种稀疏控制信号将输入图像动画化。MOFA-Video具备在多个域之间调整动作的能力,使其成为在视频生成和图像处理领域的一个创新工具。
DEMO
1. 轨迹控制 + 地标控制
2. 轨迹控制
3. 地标控制
技术
MOFA-Video是一种设计用来将不同领域中的动作适应到冻结的视频扩散模型的方法。通过使用稀疏到密集(S2D)运动生成和基于流的运动适应,MOFA-Video能够使用各种类型的控制信号有效地对单个图像进行动画处理,包括轨迹、关键点序列及其组合。
在训练阶段,通过稀疏运动采样生成稀疏控制信号,然后训练不同的MOFA-适配器通过预训练的SVD生成视频。在推理阶段,不同的MOFA-适配器可以组合在一起,共同控制冻结的SVD。