Project Icon

Wav2Lip

先进的AI视频口型同步技术

Wav2Lip是一个开源项目,采用先进的人工智能技术实现高精度的视频口型同步。该技术适用于各种身份、声音和语言,包括CGI人脸和合成语音。项目提供完整的训练和推理代码以及预训练模型,方便用户将任意音频与视频进行口型同步。Wav2Lip在多个基准数据集上展现出领先性能,为视频制作和内容创作领域提供了有力支持。

Wav2Lip准确地在自然场景中为视频进行唇形同步

Wav2Lip 在 Sync Labs 免费托管

您是否想将此集成到产品中?我们提供了一个现成的托管 API,其中包含新的和改进的唇形同步模型:https://synclabs.so/

对于任何其他商业/企业需求,请通过 pavan@synclabs.soprady@synclabs.so 与我们联系。

要直接联系作者,您可以通过 prajwal@synclabs.sorudrabha@synclabs.so 联系我们。

此代码是发表在 ACM Multimedia 2020 的论文《A Lip Sync Expert Is All You Need for Speech to Lip Generation In the Wild》的一部分。

[论文徽章图片]

📑 原始论文📰 项目页面🌀 演示⚡ 在线测试📔 Colab 笔记本
论文项目页面演示视频交互式演示Colab 笔记本 /更新的 Colab 笔记本

[Logo 图片]


亮点

  • 视觉质量判别器的权重已在 readme 中更新!
  • 高精度地将视频与任何目标语音进行唇形同步 :100:。试试我们的交互式演示
  • :sparkles: 适用于任何身份、声音和语言。也适用于 CGI 面部和合成声音。
  • 完整的训练代码、推理代码和预训练模型均可用 :boom:
  • 或者,使用 Google Colab 笔记本快速开始:链接。检查点和样本也可在 Google Drive 文件夹中获得。还有一个教程视频,由 What Make Art 提供。此外,感谢 Eyal Gruss,有一个更易访问的 Google Colab 笔记本,具有更多有用功能。教程 Colab 笔记本在此链接
  • :fire: :fire: 发布了几个新的、可靠的评估基准和指标[本仓库的 evaluation/ 文件夹]。还提供了计算论文中报告的指标的说明。

免责声明

此开源代码或我们的演示网站的所有结果应仅用于研究/学术/个人目的。由于模型是在 LRS2 数据集上训练的,严禁任何形式的商业使用。如有商业需求,请直接与我们联系!

先决条件

  • Python 3.6
  • ffmpeg:sudo apt-get install ffmpeg
  • 使用 pip install -r requirements.txt 安装必要的包。或者,这里提供了使用 docker 镜像的说明。如果遇到任何问题,请查看这条评论并在gist上发表评论。
  • 人脸检测预训练模型应下载到 face_detection/detection/sfd/s3fd.pth。如果上述链接不可用,可使用替代链接

获取权重

模型描述模型链接
Wav2Lip高精度唇形同步链接
Wav2Lip + GAN唇形同步略微逊色,但视觉质量更佳链接
专家判别器专家判别器的权重链接
视觉质量判别器在 GAN 设置中训练的视觉判别器的权重链接

使用预训练模型为视频进行唇形同步(推理)

您可以将任何视频与任何音频进行唇形同步:

python inference.py --checkpoint_path <ckpt> --face <video.mp4> --audio <an-audio-source> 

结果(默认)保存在 results/result_voice.mp4。您可以将其指定为参数,类似于其他几个可用选项。音频源可以是 FFMPEG 支持的任何包含音频数据的文件:*.wav*.mp3 甚至视频文件,代码会自动提取音频。

获得更好结果的技巧:
  • 尝试使用 --pads 参数调整检测到的人脸边界框。通常会带来改进的结果。您可能需要增加底部填充以包含下巴区域。例如 --pads 0 20 0 0
  • 如果您看到嘴部位置错位或一些奇怪的瑕疵,如出现两个嘴巴,那可能是因为过度平滑了人脸检测。使用 --nosmooth 参数再试一次。
  • 尝试使用 --resize_factor 参数,以获得较低分辨率的视频。为什么?模型是在较低分辨率的人脸上训练的。对于 720p 视频,您可能会得到比 1080p 视频更好、视觉效果更佳的结果(在许多情况下,后者也能很好地工作)。
  • 没有 GAN 的 Wav2Lip 模型通常需要更多地尝试上述两点以获得最理想的结果,有时也可以给您更好的结果。

准备 LRS2 用于训练

我们的模型在 LRS2 上训练。有关在其他数据集上训练的一些建议,请参见此处

LRS2 数据集文件夹结构
data_root (mvlrs_v1)
├── main, pretrain (我们在这项工作中只使用 main 文件夹)
|	├── 文件夹列表
|	│   ├── 以 (.mp4) 结尾的五位数视频 ID

将 LRS2 文件列表(train、val、test).txt 文件放在 filelists/ 文件夹中。

预处理数据集以加快训练速度
python preprocess.py --data_root data_root/main --preprocessed_root lrs2_preprocessed/

还可以设置其他选项,如batch_size和并行使用的GPU数量。

预处理后的LRS2文件夹结构
preprocessed_root (lrs2_preprocessed)
├── 文件夹列表
|	├── 包含五位数视频ID的文件夹
|	│   ├── *.jpg
|	│   ├── audio.wav

训练!

有两个主要步骤:(i)训练专家唇形同步判别器,(ii)训练Wav2Lip模型。

训练专家判别器

如果想跳过这一步,可以下载预训练权重。要训练它:

python color_syncnet_train.py --data_root lrs2_preprocessed/ --checkpoint_dir <保存检查点的文件夹>
训练Wav2Lip模型

你可以选择不使用额外的视觉质量判别器来训练模型(训练时间<1天),或使用判别器(~2天)。对于前者,运行:

python wav2lip_train.py --data_root lrs2_preprocessed/ --checkpoint_dir <保存检查点的文件夹> --syncnet_checkpoint_path <专家判别器检查点路径>

要使用视觉质量判别器进行训练,应该运行hq_wav2lip_train.py。两个文件的参数类似。在这两种情况下,你都可以恢复训练。查看python wav2lip_train.py --help获取更多详细信息。你还可以在hparams.py文件底部设置其他不太常用的超参数。

在LRS2以外的数据集上训练

在其他数据集上训练可能需要修改代码。在提出问题之前,请阅读以下内容:

  • 在单个说话人的几分钟数据上训练/微调可能无法获得好的结果。这是一个单独的研究问题,我们目前还没有解决方案。因此,我们很可能无法解决你的问题。
  • 在训练Wav2Lip之前,你必须先为自己的数据集训练专家判别器。
  • 如果是从网上下载的自己的数据集,在大多数情况下需要进行同步校正。
  • 注意数据集视频的FPS。更改FPS需要对代码进行重大修改。
  • 专家判别器的评估损失应降至0.25,Wav2Lip的评估同步损失应降至0.2才能获得好的结果。

在提出这个主题的问题时,请让我们知道你已经了解所有这些要点。

我们有一个在允许商业使用的数据集上训练的HD模型。在我们的新模型中,生成的人脸大小将为192 x 288。

评估

请查看evaluation/文件夹获取说明。

许可和引用

本仓库仅可用于个人/研究/非商业目的。但是,对于商业请求,请直接通过rudrabha@synclabs.soprajwal@synclabs.so与我们联系。我们在这里提供了一个具有新的和改进的唇形同步模型的即用型托管API:https://synclabs.so/ 在我们的新模型中,生成的人脸大小将为192 x 288。如果使用此仓库,请引用以下论文:

@inproceedings{10.1145/3394171.3413532,
author = {Prajwal, K R and Mukhopadhyay, Rudrabha and Namboodiri, Vinay P. and Jawahar, C.V.},
title = {A Lip Sync Expert Is All You Need for Speech to Lip Generation In the Wild},
year = {2020},
isbn = {9781450379885},
publisher = {Association for Computing Machinery},
address = {New York, NY, USA},
url = {https://doi.org/10.1145/3394171.3413532},
doi = {10.1145/3394171.3413532},
booktitle = {Proceedings of the 28th ACM International Conference on Multimedia},
pages = {484–492},
numpages = {9},
keywords = {lip sync, talking face generation, video generation},
location = {Seattle, WA, USA},
series = {MM '20}
}

致谢

部分代码结构受到这个TTS仓库的启发。我们感谢作者提供这个出色的代码。人脸检测的代码来自face_alignment仓库。我们感谢作者发布他们的代码和模型。我们感谢zabique提供的教程Colab笔记本。

致谢

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号