Hierarchical-Localization: 让视觉定位变得简单易用的工具箱

Ray

Hierarchical-Localization: 让视觉定位变得简单易用的工具箱

Hierarchical-Localization (hloc) 是一个用于大规模6自由度视觉定位的模块化工具箱。它实现了分层定位算法,利用图像检索和特征匹配,具有快速、准确和可扩展的特点。该代码库整合了多年来图像匹配和运动结构重建(Structure-from-Motion)方面的研究成果,使其易于使用。

主要功能

使用 hloc,您可以:

  • 在多个室内和室外视觉定位基准上复现最先进的结果
  • 使用 SuperPoint+SuperGlue 运行运动结构重建(SfM),定位您自己的数据集
  • 评估您自己的局部特征或图像检索用于视觉定位
  • 实现新的定位管道并轻松调试 🔥

分层定位示意图 分层定位同时利用图像检索和特征匹配

快速开始

您现在可以在 Google Colab 中免费使用 GPU 运行 hloc 和 COLMAP 了! notebook demo.ipynb 展示了如何仅需几个步骤就可以运行 SfM 和定位。试试用您自己的数据,我们很想听听您的反馈!

安装

hloc 需要 Python >=3.7 和 PyTorch >=1.1。在本地安装软件包会拉取其他依赖项:

git clone --recursive https://github.com/cvg/Hierarchical-Localization/
cd Hierarchical-Localization/
python -m pip install -e .

所有依赖项都列在 requirements.txt 中。hloc-v1.3 开始,不再需要安装 COLMAP。 该存储库包含外部局部特征作为 git 子模块 - 别忘了用 git submodule update --init --recursive 拉取子模块。

我们还提供了一个 Docker 镜像:

docker build -t hloc:latest .
docker run -it --rm -p 8888:8888 hloc:latest  # 对于 GPU 支持,添加 `--runtime=nvidia`
jupyter notebook --ip 0.0.0.0 --port 8888 --no-browser --allow-root

通用管道

该工具箱由脚本组成,大致执行以下步骤:

  1. 为所有数据库和查询图像提取局部特征,如 SuperPointDISK
  2. 构建参考 3D SfM 模型
    1. 使用检索或先前的 SfM 模型找到可见的数据库图像
    2. 使用 SuperGlue 或更快的 LightGlue 匹配这些数据库对
    3. 使用 COLMAP 三角测量新的 SfM 模型
  3. 使用检索找到与每个查询相关的数据库图像
  4. 匹配查询图像
  5. 运行定位
  6. 可视化和调试

然后可以在 visuallocalization.net 上评估支持的数据集的定位。当有 3D LiDAR 扫描可用时,例如对于室内数据集 InLoc,可以跳过步骤 2。

工具箱的结构:

  • hloc/*.py: 顶层脚本
  • hloc/extractors/: 特征提取器接口
  • hloc/matchers/: 特征匹配器接口
  • hloc/pipelines/: 多个数据集的完整管道

hloc 可以作为外部包导入 import hloc,也可以从命令行调用:

python -m hloc.name_of_script --arg1 --arg2

任务

我们提供了使用 Aachen、InLoc 定位以及使用 SfM 为您自己的数据生成参考姿态的分步指南。只需下载数据集,您就可以开始了!

Aachen - 室外定位

查看 pipeline_Aachen.ipynb 获取使用 Aachen 定位的分步指南。使用可视化工具,尝试新的局部特征或匹配器,享受其中的乐趣!不喜欢笔记本?您也可以从命令行运行所有脚本。

Aachen定位结果

InLoc - 室内定位

notebook pipeline_InLoc.ipynb 展示了使用 InLoc 定位的步骤。这要简单得多,因为不需要 3D SfM 模型。

InLoc定位结果

从头开始进行 SfM 重建

我们在 pipeline_SfM.ipynb 中展示了如何为无序图像集运行 3D 重建。这会生成参考姿态,以及适合使用与 Aachen 相同管道进行定位的良好稀疏 3D 模型。

结果

使用 NetVLAD 进行检索,我们获得了以下最佳结果:

方法Aachen 白天Aachen 夜晚检索
SuperPoint + SuperGlue89.6 / 95.4 / 98.886.7 / 93.9 / 100NetVLAD top 50
SuperPoint + NN85.4 / 93.3 / 97.275.5 / 86.7 / 92.9NetVLAD top 30
D2Net (SS) + NN84.6 / 91.4 / 97.183.7 / 90.8 / 100NetVLAD top 30
方法InLoc DUC1InLoc DUC2检索
SuperPoint + SuperGlue46.5 / 65.7 / 78.352.7 / 72.5 / 79.4NetVLAD top 40
SuperPoint + SuperGlue (temporal)49.0 / 68.7 / 80.853.4 / 77.1 / 82.4NetVLAD top 40
SuperPoint + NN39.9 / 55.6 / 67.237.4 / 57.3 / 70.2NetVLAD top 20
D2Net (SS) + NN39.9 / 57.6 / 67.236.6 / 53.4 / 61.8NetVLAD top 20

查看 visuallocalization.net/benchmark 获取更多详细信息和其他基准。

支持的数据集

我们在 hloc/pipelines/ 中提供了脚本,用于在以下数据集上运行重建和定位:Aachen Day-Night (v1.0 和 v1.1)、InLoc、Extended CMU Seasons、RobotCar Seasons、4Seasons、Cambridge Landmarks 和 7-Scenes。例如,在按照这里给出的说明下载数据集后,我们可以使用以下命令运行使用 SuperPoint+SuperGlue 的 Aachen Day-Night 管道:

python -m hloc.pipelines.Aachen.pipeline [--outputs ./outputs/aachen]

BibTex 引用

如果您在出版物中报告上述任何结果,或使用此处提供的任何工具,请考虑同时引用 Hierarchical LocalizationSuperGlue 论文:

@inproceedings{sarlin2019coarse,
  title     = {From Coarse to Fine: Robust Hierarchical Localization at Large Scale},
  author    = {Paul-Edouard Sarlin and
               Cesar Cadena and
               Roland Siegwart and
               Marcin Dymczyk},
  booktitle = {CVPR},
  year      = {2019}
}

@inproceedings{sarlin2020superglue,
  title     = {{SuperGlue}: Learning Feature Matching with Graph Neural Networks},
  author    = {Paul-Edouard Sarlin and
               Daniel DeTone and
               Tomasz Malisiewicz and
               Andrew Rabinovich},
  booktitle = {CVPR},
  year      = {2020},
}

进一步探索

调试和可视化

每次定位运行都会生成一个 pickle 日志文件。对于每个查询,它包含选定的数据库图像、它们的匹配以及来自姿态求解器的信息,例如 RANSAC 内点。因此,可以解析它以收集统计数据并分析失败模式或困难场景。

我们还在 hloc/visualization.py 中提供了一些可视化工具,用于可视化 3D SfM 模型的一些属性,例如关键点的可见性、它们的跟踪长度或估计的稀疏深度(如下所示)。

Aachen深度可视化

使用您自己的局部特征或匹配器

如果您的代码基于 PyTorch:只需在 hloc/extractors/hloc/matchers/ 中添加一个新接口。它需要继承自 hloc.utils.base_model.BaseModel,将数据字典作为输入,并输出预测字典。参考 hloc/extractors/superpoint.py 获取示例。您还可以在 hloc/extract_features.pyhloc/match_features.py 中定义标准配置 - 然后可以直接

avatar
0
0
0
最新项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号