Project Icon

MimicMotion

基于AI的高质量人体动作视频生成框架

MimicMotion是一个创新的视频生成框架,可基于任意动作指导生成高质量的长视频。该项目采用置信度感知的姿态引导技术,提高了时间平滑性和模型鲁棒性。通过区域损失放大和渐进式潜在融合策略,MimicMotion有效解决了图像失真问题,并能以较低的资源消耗生成长视频。这一技术在视频质量、控制性和生成长度等方面显著优于现有方法,为人体运动视频生成领域开辟了新的可能性。

MimicMotion

Replicate

MimicMotion:基于置信度感知姿态引导的高质量人体运动视频生成
张远1,2,顾嘉熙1,王立文1,王瀚1,2,程俊奇1,朱跃峰1,邹方圆1
[1腾讯; 2上海交通大学]


亮点:细节丰富时序平滑度好,以及视频长度长

概述

模型架构
MimicMotion框架概览。

近年来,生成式人工智能在图像生成领域取得了显著进展,催生了各种应用。然而,视频生成在可控性、视频长度和细节丰富度等方面仍面临相当大的挑战,这阻碍了该技术的应用和普及。在本研究中,我们提出了一个可控的视频生成框架,名为MimicMotion,它能够根据任何运动引导生成任意长度的高质量视频。与之前的方法相比,我们的方法有几个亮点。首先,通过置信度感知的姿态引导,可以实现时间平滑性,从而通过大规模训练数据增强模型的鲁棒性。其次,基于姿态置信度的区域损失放大显著缓解了图像的失真。最后,为了生成长时间平滑视频,提出了一种渐进式潜在融合策略。通过这种方式,可以在可接受的资源消耗下生成任意长度的视频。通过广泛的实验和用户研究,MimicMotion在多个方面展示了比之前方法显著的改进。

新闻

  • [2024-07-08]: 🔥 作为1.1版本发布了一个更优秀的模型检查点。视频帧数的最大数量现已从16扩展到72,显著提升了视频质量!
  • [2024-07-01]: 项目页面、代码、技术报告和一个基础模型检查点已发布。一个支持更高质量视频生成的更好的检查点将很快发布。敬请关注!

快速开始

对于最初发布的模型检查点版本,它支持生成最多72帧、分辨率为576x1024的视频。如果遇到内存不足的问题,可以适当减少帧数。

环境设置

推荐使用Python 3+和Torch 2.x,已在Nvidia V100 GPU上验证。按照以下命令安装所有Python依赖:

conda env create -f environment.yaml
conda activate mimicmotion

下载权重

如果在连接Hugging Face时遇到问题,可以通过设置环境变量来使用镜像端点:export HF_ENDPOINT=https://hf-mirror.com。 请按如下方式手动下载权重:

cd MimicMotions/
mkdir models
  1. 下载DWPose预训练模型:dwpose
    mkdir -p models/DWPose
    wget https://huggingface.co/yzd-v/DWPose/resolve/main/yolox_l.onnx?download=true -O models/DWPose/yolox_l.onnx
    wget https://huggingface.co/yzd-v/DWPose/resolve/main/dw-ll_ucoco_384.onnx?download=true -O models/DWPose/dw-ll_ucoco_384.onnx
    
  2. Huggingface下载MimicMotion的预训练检查点
    wget -P models/ https://huggingface.co/ixaac/MimicMotion/resolve/main/MimicMotion_1-1.pth
    
  3. SVD模型stabilityai/stable-video-diffusion-img2vid-xt-1-1将自动下载。

最后,所有权重应按以下方式组织在models文件夹中:

models/
├── DWPose
│   ├── dw-ll_ucoco_384.onnx
│   └── yolox_l.onnx
└── MimicMotion_1-1.pth

模型推理

提供了一个用于测试的样例配置文件test.yaml。您也可以根据需要轻松修改各种配置。

python inference.py --inference_config configs/test.yaml

提示:如果您的GPU内存有限,请尝试设置环境变量PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:256

VRAM要求和运行时间

对于35秒的演示视频,72帧模型需要16GB VRAM(4060ti),在4090 GPU上需要20分钟完成。

16帧U-Net模型的最低VRAM要求为8GB;但VAE解码器需要16GB。您可以选择在CPU上运行VAE解码器。

引用

@article{mimicmotion2024,
  title={MimicMotion: High-Quality Human Motion Video Generation with Confidence-aware Pose Guidance},
  author={Yuang Zhang and Jiaxi Gu and Li-Wen Wang and Han Wang and Junqi Cheng and Yuefeng Zhu and Fangyuan Zou},
  journal={arXiv preprint arXiv:2406.19680},
  year={2024}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号