在计算机视觉和机器人领域,具身代理被期望能够探索环境并执行人类指令。这就需要它们能够充分理解基于第一人称观察的3D场景,并将其转化为语言进行交互。然而,传统研究更多关注于从全局视角进行场景级输入和输出的设置。为了弥补这一差距,研究人员推出了EmbodiedScan,这是一个多模态、以自我为中心的3D感知数据集和基准测试,用于全面的3D场景理解。
EmbodiedScan包含了超过5000次扫描,涵盖了100万个以自我为中心的RGB-D视图、100万个语言提示、16万个跨越760多个类别的3D定向框(部分与LVIS对齐),以及80个常见类别的密集语义占用。这个庞大而丰富的数据集为研究人员提供了前所未有的资源,以开发和测试先进的3D感知算法。
如上图所示,EmbodiedScan提供了多样化的室内场景数据,包括不同房间类型和视角的图像。这些数据不仅包括视觉信息,还包括深度信息和语言描述,为全面的场景理解提供了基础。
基于EmbodiedScan数据集,研究人员还提出了一个名为Embodied Perceptron的基线框架。这个框架能够处理任意数量的多模态输入,展示了出色的3D感知能力。
如上图所示,Embodied Perceptron接受任意数量视图的RGB-D序列和文本作为多模态输入。它使用经典编码器为每种模态提取特征,并采用密集和同构稀疏融合与相应的解码器进行不同的预测。集 成了文本特征的3D特征可以进一步用于语言引导的理解。
这个框架在两系列基准测试中都表现出色:
更令人兴奋的是,Embodied Perceptron在现实世界中也展现了卓越的性能,即使在不同的RGB-D传感器和环境中也能很好地工作。
大规模多模态数据集: EmbodiedScan是目前最大规模的多模态3D感知数据集之一,为研究人员提供了宝贵的资源。
自我为中心的视角: 与传统的全局视角不同,EmbodiedScan采用自我为中心的视角,更贴近实际机器人和AI代理的感知方式。
语言引导的场景理解: 通过引入大量语言提示,EmbodiedScan为语言引导的3D场景理解开辟了新的研究方向。
全面的任务设置: 从基础的3D感知到高级的语言引导任务,EmbodiedScan提供了一系列具有挑战性的任务设置。
Embodied Perceptron框架: 这个基线框架展示了处理多模态输入的能力,为未来的研究提供了良好的起点。
EmbodiedScan的实现涉及多个技术方面:
数据收集与处理:
注释生成:
框架实现:
评估指标: