EmbodiedScan 项目介绍
项目背景
在计算机视觉和机器人技术领域,赋能的智能体(embodied agents)被期望能够探索环境并根据人类指令执行任务。这就要求它们能够通过第一视角去全面理解三维场景,并将其用语言结合以便于交互。然而,传统的研究更加关注从全局视角进行的场景级输入输出设置。为弥补这一差距,我们引入了 EmbodiedScan,一个面向全面3D场景理解的多模态、以自我为中心的三维感知数据集和基准。该项目包含超过5000个扫描,涵盖100万自我中心的RGB-D视图、100万语言提示、160,000个3D导向框,跨越760多个类别,其中一些部分与LVIS对齐,以及80个常见类别的密集语义占用。
在此基础上,我们推出了一种基准框架,名为 Embodied Perceptron。它能够处理任意数量的多模态输入,并在我们设立的两个系列基准测试中展示了卓越的3D感知能力,即基础3D感知任务和基于语言的任务,并且在实际应用中效果显著。
项目的最新动态
- 2024年9月:发布了EmbodiedScan v2的测试版,增加了来自ARKitScenes的约5000个新扫描,同时发布了MMScan初始版本的注释。
- 2024年8月:初步发布了MMScan的样本数据,完整版本将在本月与ARKitScenes的注释一起发布。
- 2024年6月:发布了关于具有史无前例的层次化语言注释的后续工作MMScan的报告。
- 2024年4月:发布了所有基线预训练模型和日志。
- 2024年3月:挑战测试服务器上线,邀请大家的强势提交。
快速上手
该项目在Ubuntu 20.04环境下进行测试,支持NVIDIA Driver 525.147.05、CUDA 12.0、Python 3.8.18、PyTorch 1.11.0+cu113和PyTorch3D 0.7.2等环境配置。用户可以按照以下步骤进行安装:
- 克隆项目仓库。
- 创建Python环境并安装PyTorch。
- 安装EmbodiedScan及其依赖。
模型和基准
Embodied Perceptron模型接受任意数量视角的RGB-D序列与文本作为多模态输入。经过经典的特征编码后,能够进行密集和稀疏的融合以进行不同预测。该模型融合了文本特征的3D特征后,可以用于基于语言的理解。
训练与评估
用户可以根据不同任务的配置文件进行训练与测试。例如,可以使用单GPU或多GPU方式对多视角3D检测模型进行训练。在测试阶段,可以通过指定预训练模型的路径来评估模型。
基准测试
我们提供了一些基线结果,其日志和预训练模型可供下载。性能数据会因数据集的重新划分而有所不同。
今后的工作计划
我们计划继续完善数据集API和相关代码,并且陆续发布更多方法的代码和完整更新版本,包括MMScan的数据和代码。
引用
如果该项目对您有帮助,请引用以下参考文献。请同时引用我们使用的原始数据集的相关文献。
致谢
特别感谢OpenMMLab、PyTorch3D、ScanNet、3RScan和Matterport3D等开源项目为我们提供了强大的支持与数据来源。我们还受到ReferIt3D和SUSTechPOINTS项目的启发。
如此多的努力和协作,推动了EmbodiedScan项目的发展,希望这个工具可以为研究人员提供更多的帮助和启发。