Project Icon

Moore-AnimateAnyone

开源人物动画生成和人脸重演项目

Moore-AnimateAnyone是一个开源的人物动画生成项目,可基于单张参考图像和动作序列生成视频动画。项目还包含人脸重演功能,能精确控制源图像表情和动作。目前已开源推理代码和预训练模型,提供在线演示。未来计划加入音频驱动的人像视频生成等新功能,持续为AIGC领域贡献创新技术。

🤗 简介

更新 🔥🔥🔥 我们提出了一种基于AnimateAnyone管道的人脸重演方法:使用驱动视频的面部特征点来控制给定源图像的姿势,同时保持源图像的身份。特别地,我们从驱动视频的特征点中分离出头部姿态(包括眨眼)和嘴部运动,能够精确控制源人脸的表情和动作。我们发布了人脸重演的推理代码和预训练模型!

更新 🏋️🏋️🏋️ 我们发布了训练代码!现在你可以训练自己的AnimateAnyone模型了。更多详情请参见此处。祝玩得开心!

更新:🔥🔥🔥 我们在这里推出了Moore-AnimateAnyone的HuggingFace Spaces演示!

本仓库复现了AnimateAnyone。为了与原论文展示的结果保持一致,我们采用了各种方法和技巧,这可能与论文和另一个实现略有不同。

值得注意的是,这是一个非常初步的版本,旨在接近AnimateAnyone展示的性能(根据我们的测试,大约为80%)。

我们将继续开发它,同时欢迎社区提供反馈和想法。增强版本也将在我们的MoBi MaLiang AIGC平台上推出,在我们自己的全功能GPU S4000云计算平台上运行。

📝 发布计划

  • AnimateAnyone的推理代码和预训练权重
  • AnimateAnyone的训练脚本
  • 人脸重演的推理代码和预训练权重
  • 人脸重演的训练脚本
  • 音频驱动肖像视频生成的推理脚本
  • 音频驱动肖像视频生成的训练脚本

🎞️ 示例

AnimateAnyone

以下是我们生成的一些AnimateAnyone结果,分辨率为512x768。

[视频示例]

局限性:我们在当前版本中观察到以下缺点:

  1. 当参考图像有干净背景时,背景可能会出现一些伪影
  2. 当参考图像和关键点之间存在尺度不匹配时,可能会出现次优结果。我们尚未实现论文中提到的预处理技术。
  3. 当动作序列细微或场景静态时,可能会出现一些闪烁和抖动。

这些问题将在近期得到解决和改进。感谢您的期待!

人脸重演

以下是我们生成的一些结果,分辨率为512x512。

[视频示例]

⚒️ 安装

构建环境

我们推荐使用Python版本>=3.10和CUDA版本=11.7。然后按如下步骤构建环境:

# [可选] 创建虚拟环境
python -m venv .venv
source .venv/bin/activate
# 使用pip安装:
pip install -r requirements.txt
# 用于面部特征点提取
git clone https://github.com/emilianavt/OpenSeeFace.git

下载权重

自动下载:你可以运行以下命令自动下载权重:

python tools/download_weights.py

权重将被放置在./pretrained_weights目录下。整个下载过程可能需要较长时间。

手动下载:你也可以手动下载权重,步骤如下:

  1. 下载我们的AnimateAnyone训练权重,包括四个部分:denoising_unet.pthreference_unet.pthpose_guider.pthmotion_module.pth

  2. 下载我们的人脸重演训练权重,并将这些权重放在pretrained_weights下。

  3. 下载基础模型和其他组件的预训练权重:

  4. 按照这里的说明下载dwpose权重(dw-ll_ucoco_384.onnxyolox_l.onnx)。

最后,这些权重应按如下方式组织:

[文件结构]

注意:如果你已经安装了一些预训练模型,如StableDiffusion V1.5,你可以在配置文件中指定它们的路径(例如./config/prompts/animation.yaml)。

🚀 训练和推理

AnimateAnyone的推理

以下是运行推理脚本的命令行指令:

python -m scripts.pose2vid --config ./configs/prompts/animation.yaml -W 512 -H 784 -L 64

你可以参考animation.yaml的格式来添加自己的参考图像或姿势视频。要将原始视频转换为姿势视频(关键点序列),你可以运行以下命令:

python tools/vid2pose.py --video_path /path/to/your/video.mp4

人脸重演的推理

以下是运行推理脚本的命令行指令:

python -m scripts.lmks2vid --config ./configs/prompts/inference_reenact.yaml --driving_video_path 你自己的驱动视频路径 --source_image_path 你自己的源图像路径  

我们在./config/inference/talkinghead_images中提供了一些人脸图像,在./config/inference/talkinghead_videos中提供了一些人脸视频用于推理。

AnimateAnyone的训练

注意:软件包依赖已更新,在训练之前,你可以通过pip install -r requirements.txt升级你的环境。

数据准备

从原始视频中提取关键点:

python tools/extract_dwpose_from_vid.py --video_root /path/to/your/video_dir

提取数据集的元信息:

python tools/extract_meta_info.py --root_path /path/to/your/video_dir --dataset_name anyone 

更新训练配置文件中的以下行:

data:
  meta_paths:
    - "./data/anyone_meta.json"

第一阶段

openpose controlnet权重放在./pretrained_weights下,用于初始化姿态引导器。

sd-image-variation放在./pretrained_weights下,用于初始化unet权重。

运行命令:

accelerate launch train_stage_1.py --config configs/train/stage1.yaml

第二阶段

将预训练的运动模块权重mm_sd_v15_v2.ckpt下载链接)放在./pretrained_weights下。

在配置文件stage2.yaml中指定第一阶段的训练权重,例如:

stage1_ckpt_dir: './exp_output/stage1'
stage1_ckpt_step: 30000 

运行命令:

accelerate launch train_stage_2.py --config configs/train/stage2.yaml

🎨 Gradio演示

HuggingFace演示:我们在HuggingFace Spaces上发布了Moore-AnimateAnyone的快速预览演示! 我们感谢HuggingFace团队在设置这个演示时提供的帮助。

为了减少等待时间,我们在生成视频时限制了大小(宽度、高度和长度)和推理步骤。

如果你有自己的GPU资源(>= 16GB显存),你可以通过以下命令运行本地gradio应用:

python app.py

社区贡献

🖌️ 在Mobi MaLiang上尝试

我们将在我们的MoBi MaLiang AIGC平台上发布这个模型,该平台运行在我们自己的全功能GPU S4000云计算平台上。Mobi MaLiang现已集成各种AIGC应用和功能(如文本生成图像、可控生成等)。你可以通过点击此链接或使用微信扫描下方二维码来体验它!

⚖️ 免责声明

本项目仅用于学术研究,我们明确声明不对用户生成的内容负责。用户在使用生成模型时对自己的行为负全责。项目贡献者与用户的行为没有法律关联,也不承担任何责任。使用生成模型时必须遵守道德和法律标准,负责任地使用。

🙏🏻 致谢

我们首先感谢AnimateAnyone的作者。此外,我们要感谢majic-animateanimatediffOpen-AnimateAnyone仓库的贡献者,感谢他们的开放研究和探索。此外,我们的仓库还包含了来自dwposeanimatediff-cli-prompt-travel的一些代码,我们也向他们表示感谢。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号