#语音驱动
speech-driven-animation
Speech-Driven Animation是一个开源项目,实现语音驱动的端到端面部合成模型。该项目根据输入图像和音频生成面部动画视频,支持GRID、TIMIT和CREMA等预训练模型。通过API可输入自定义音频和图像,输出同步动画视频。项目还提供音频和视频编码器,可用于特征提取和分类任务。
AniTalker
AniTalker是一个面部动画生成项目,通过解耦身份和面部运动编码实现多样化的说话面部动画。该技术根据音频和图像生成说话头像,支持控制头部姿态、位置和缩放。项目提供多个预训练模型,包括基于Hubert和MFCC的音频特征提取,适用于不同场景。AniTalker为创作和研究提供了生成说话面部动画的工具。