热门
导航
快讯
推荐文章
热门
导航
快讯
推荐文章
#语音驱动生成
DiffSHEG - 基于扩散模型的实时语音驱动3D表情和手势生成技术
DiffSHEG
语音驱动生成
3D表情和手势
实时生成
扩散模型
Github
开源项目
DiffSHEG是一种基于扩散模型的实时语音驱动3D表情和手势生成技术。该方法能够生成与语音同步的全息3D表情和手势,适用于不同长度的语音输入。DiffSHEG为虚拟人物动画和人机交互领域提供了新的解决方案,有助于创建更具表现力的虚拟角色。
1
1
相关文章
DiffSHEG: 基于扩散模型的实时语音驱动全身3D表情和手势生成方法
3 个月前
使用协议
隐私政策
广告服务
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI
·
鲁ICP备2024100362号-6
·
鲁公网安备37021002001498号