Project Icon

OnePose_Plus_Plus

关键点自由的单次目标姿态估计方法

OnePose++是一种目标姿态估计方法,无需CAD模型和预定义关键点。该方法通过结构光重建和深度学习,实现单次拍摄即可估计物体姿态。项目提供训练、推理和演示代码,支持OnePose和OnePose_LowTexture数据集,可扩展至LINEMOD数据集。OnePose++在计算机视觉和机器人领域有潜在应用价值。

OnePose++:无需关键点和CAD模型的一次性物体姿态估计

项目主页 | 论文


OnePose++:无需关键点和CAD模型的一次性物体姿态估计
何星仪*孙嘉铭*王宇昂黄荻鲍虎军周晓巍
NeurIPS 2022

演示视频

待办事项

  • 训练、推理和演示代码。
  • 在OnePose数据集和提出的OnePose_LowTexture数据集上重现评估结果的流程。
  • 使用多个GPU进行并行重建和多个物体的评估。
  • OnePose Cap应用:我们正在准备将数据采集应用发布到App Store(仅限iOS),敬请关注。

安装

conda env create -f environment.yaml
conda activate oneposeplus

本项目使用了LoFTRDeepLM。感谢他们的出色工作,我们感谢他们对社区的贡献。请按照他们的安装说明和许可证进行操作:

git submodule update --init --recursive

# 安装DeepLM
cd submodules/DeepLM
sh example.sh
cp ${REPO_ROOT}/backup/deeplm_init_backup.py ${REPO_ROOT}/submodules/DeepLM/__init__.py

请注意,高效优化器DeepLM用于我们的SfM细化阶段。如果您在安装时遇到困难,请不要担心。您仍然可以通过使用我们的一阶优化器运行代码,只是速度会稍慢一些。

本项目还使用了COLMAP进行运动恢复结构。请参阅官方说明进行安装。

下载预训练模型,包括我们的2D-3D匹配和LoFTR模型。然后将它们移动到${REPO_ROOT}/weights

[可选] 您可以选择尝试我们基于Web的3D可视化工具Wis3D,以便方便地交互式可视化特征匹配和点云。我们还在Wis3D中提供了许多其他酷炫的可视化功能,欢迎尝试。

# 正在进行中,很快就会准备就绪,目前仅在test-pypi上可用。
pip install -i https://test.pypi.org/simple/ wis3d

演示

安装完成后,您可以参考此页面使用自定义数据运行演示。

训练和评估

数据集设置

  1. 这里下载OnePose数据集,从这里下载OnePose_LowTexture数据集,并将它们解压到$/your/path/to/onepose_datasets。 如果您想在LINEMOD数据集上进行评估,请从CDPN下载真实训练数据、测试数据和3D物体模型,并从这里下载YOLOv5的检测结果。然后将它们解压到$/your/path/to/onepose_datasets/LINEMOD 目录结构应按以下方式组织:
    |--- /your/path/to/datasets
    |       |--- train_data
    |       |--- val_data
    |       |--- test_data
    |       |--- lowtexture_test_data
    |       |--- LINEMOD
    |       |      |--- real_train
    |       |      |--- real_test
    |       |      |--- models
    |       |      |--- yolo_detection
    

您可以参考数据集文档获取有关OnePose_LowTexture数据集的更多信息。

  1. 建立数据集符号链接
    REPO_ROOT=/path/to/OnePose_Plus_Plus
    ln -s /your/path/to/datasets $REPO_ROOT/data/datasets
    

重建

对训练和测试物体都需要重建半稠密物体点云和2D-3D对应关系:

python run.py +preprocess=sfm_train_data.yaml use_local_ray=True  # 用于训练数据
python run.py +preprocess=sfm_inference_onepose_val.yaml use_local_ray=True # 用于验证数据
python run.py +preprocess=sfm_inference_onepose.yaml use_local_ray=True # 用于测试数据
python run.py +preprocess=sfm_inference_lowtexture.yaml use_local_ray=True # 用于低纹理测试数据

推理

# 评估OnePose数据集:
python inference.py +experiment=inference_onepose.yaml use_local_ray=True verbose=True

# 评估OnePose_LowTexture数据集:
python inference.py +experiment=inference_onepose_lowtexture.yaml use_local_ray=True verbose=True

请注意,我们默认在单个GPU上使用两个工作进程进行并行评估。如果您的GPU内存小于6GB,您应该添加use_local_ray=False来关闭并行化。

在LINEMOD数据集上评估

# 将LINEMOD数据集解析为OnePose数据集格式:
sh scripts/parse_linemod_objs.sh

# 在真实训练数据上重建SfM模型:
python run.py +preprocess=sfm_inference_LINEMOD.yaml use_local_ray=True

# 评估LINEMOD数据集:
python inference.py +experiment=inference_LINEMOD.yaml use_local_ray=True verbose=True

训练

  1. 准备真实标注。合并训练/验证数据的标注:

    python merge.py +preprocess=merge_annotation_train.yaml
    python merge.py +preprocess=merge_annotation_val.yaml
    
  2. 开始训练

    python train_onepose_plus.py +experiment=train.yaml exp_name=onepose_plus_train
    

    请注意,默认的训练配置使用8个GPU,每个GPU大约需要23GB显存。您可以在trainer.gpus中设置GPU数量或ID,并在datamodule.batch_size中减小批量大小以降低GPU显存占用。

所有模型权重将保存在${REPO_ROOT}/models/checkpoints/${exp_name}下,日志将保存在${REPO_ROOT}/logs/${exp_name}下。 您可以通过Tensorboard可视化训练过程:

tensorboard --logdir logs --bind_all --port your_port_number

引用

如果您发现这段代码对您的研究有用,请使用以下BibTeX条目。

@inproceedings{
    he2022oneposeplusplus,
    title={OnePose++: Keypoint-Free One-Shot Object Pose Estimation without {CAD} Models},
    author={Xingyi He and Jiaming Sun and Yuang Wang and Di Huang and Hujun Bao and Xiaowei Zhou},
    booktitle={Advances in Neural Information Processing Systems},
    year={2022}
}

致谢

我们的部分代码借鉴自hlocLoFTR。感谢他们的作者的出色工作。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号