AvatarPoser: 用于稀疏运动感知的全身姿态追踪技术
在当今的混合现实头戴式显示器中,用户的头部姿态和手部动作已经可以被很好地追踪,从而支持基本的交互功能。然而,这种有限的追踪方式也限制了用户虚拟形象的表现,通常只能呈现上半身。为了解决这一问题,来自苏黎世联邦理工学院感知、交互与认知实验室(SIPLAB)的研究团队开发了一种名为AvatarPoser的创新技术。
AvatarPoser的核心技术
AvatarPoser是首个仅依靠用户头部和手部运动输入,就能在世界坐标系中预测全身姿态的基于学习的方法。该方法的核心包括以下几个关键技术点:
- Transformer编码器: 用于从稀疏的输入信号中提取深层特征。
- 全局运动与局部关节方向解耦: 这种解耦设计有助于更准确地指导姿态估计。
- 逆运动学优化: 通过优化程序调整手臂关节位置,使其与原始追踪输入相匹配,从而获得更精确的全身动作。
AvatarPoser的优势
相比于传统方法,AvatarPoser具有以下显著优势:
- 简化设置: 无需在骨盆或下半身添加额外的传感器,降低了系统复杂度。
- 移动友好: 简化的设置使其更适合在移动场景中应用。
- 实时性能: 推理速度快,支持实时操作。
- 精确度高: 在大规模动作捕捉数据集(如AMASS)上的评估中达到了新的最高水平。
应用前景
AvatarPoser为元宇宙应用提供了一个实用的接口,支持全面的虚拟形象控制和表现。这项技术有望在以下领域产生重大影响:
- 虚拟现实社交: 提供更自然、更具表现力的全身虚拟形象。
- 远程协作: 在虚拟会议和协作环境中实现更真实的存在感。
- 虚拟演示和培训: 支持更丰富的肢体语言和动作表达。
- 虚拟直播和表演: 为虚拟主播和表演者提供更灵活的动作控制。
技术实现
AvatarPoser的实现涉及多个关键步骤:
- 数据准备:
- 使用AMASS数据集中的BMLrub、CMU和HDM05数据集。
- 采用SMPL+H身体模型,包括DMPL混合形状。
- 模型训练:
python main_train_avatarposer.py -opt options/train_avatarposer.json
- 模型测试:
python main_test_avatarposer.py
- 预训练模型: 研究团队提供了预训练模型,可直接用于测试和应用。
未来展望
尽管AvatarPoser在全身姿态追踪方面取得了显著进展,但仍有进一步改进和扩展的空间:
- 精细动作捕捉: 提高对细微动作的捕捉能力,如手指动作和面部表情。
- 多人交互: 扩展到多用户场景,支持更复杂的社交互动。
- 环境感知: 结合环境信息,实现与虚拟场景的更自然交互。
- 个性化适应: 开发能够适应不同用户体型和动作习惯的模型。
AvatarPoser的出现标志着虚拟现实和增强现实技术向着更自然、更沉浸式的方向迈进了一大步。随着这项技术的不断完善和应用,我们可以期待在不久的将来,元宇宙中的虚拟交互将变得更加真实和富有表现力。
结语
AvatarPoser为解决虚拟和增强现实中全身姿态追踪的问题提供了一种创新的解决方案。通过智能地利用有限的输入数据,该技术成功地实现了全身姿态的准确预测,为元宇宙应用开辟了新的可能性。随着进一步的研究和优化,我们有理由相信,AvatarPoser将在塑造未来虚拟交互体验方面发挥重要作用。