热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#语音驱动手势生成
DiffGesture: 利用扩散模型实现音频驱动的协同语音手势生成
2 个月前
DiffGesture是一种新型的基于扩散模型的框架,旨在有效捕捉跨模态的音频到手势关联,并保持时间连贯性,实现高保真度的音频驱动协同语音手势生成。该方法在CVPR 2023会议上发表,相比现有方法取得了显著的性能提升。
AI动画
语音驱动手势生成
扩散模型
跨模态学习
计算机视觉
Github
开源项目
2 个月前
相关项目
DiffGesture
DiffGesture是一个基于扩散模型的框架,旨在生成与音频同步的协同语音手势。该框架通过扩散条件生成过程和音频-手势变换器捕捉跨模态关联,并使用手势稳定器和无分类器引导保持时间一致性。DiffGesture生成的手势具有良好的模式覆盖和音频相关性,在多个数据集上展现出优秀性能。
查看
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号