Project Icon

Hierarchical-Localization

模块化的6自由度视觉定位工具箱实现分层定位方法

这是一个用于6自由度视觉定位的开源工具箱。它采用分层定位方法,结合图像检索和特征匹配技术,提供快速、准确和可扩展的定位能力。该工具箱整合了图像匹配和运动恢复结构(SfM)领域的研究成果,可重现多个室内外视觉定位基准的最佳结果,并支持实现和调试新的定位流程。

hloc - 分层定位工具箱

这是 hloc,一个用于最先进的6自由度视觉定位的模块化工具箱。它实现了分层定位,利用图像检索和特征匹配,具有快速、准确和可扩展的特点。这个代码库结合并轻松实现了多年来在图像匹配和运动结构重建方面的研究成果。

使用 hloc,你可以:

  • 在多个室内和室外视觉定位基准测试中复现最先进的结果
  • 使用SuperPoint+SuperGlue进行运动结构重建,以便用你自己的数据集进行定位
  • 评估你自己的局部特征或图像检索用于视觉定位
  • 实现新的定位流程并轻松调试 🔥


分层定位同时使用图像检索和特征匹配

快速开始 ➡️ 在Colab中打开

直接在你的浏览器中使用运动结构重建构建3D地图,并定位任何互联网图像!你现在可以在Google Colab中免费使用GPU运行hloc和COLMAP。 笔记本demo.ipynb展示了如何仅需几个步骤就能运行SfM和定位。尝试使用你自己的数据,并告诉我们结果!

安装

hloc需要Python >=3.7和PyTorch >=1.1。在本地安装该包会自动拉取其他依赖项:

git clone --recursive https://github.com/cvg/Hierarchical-Localization/
cd Hierarchical-Localization/
python -m pip install -e .

所有依赖项都列在requirements.txt中。hloc-v1.3版本开始,不再需要安装COLMAP。 这个仓库包含了外部局部特征作为git子模块 - 别忘了使用git submodule update --init --recursive拉取子模块。

我们还提供了一个Docker镜像:

docker build -t hloc:latest .
docker run -it --rm -p 8888:8888 hloc:latest  # 对于GPU支持,添加 `--runtime=nvidia`
jupyter notebook --ip 0.0.0.0 --port 8888 --no-browser --allow-root

通用流程

该工具箱由脚本组成,大致执行以下步骤:

  1. 为所有数据库和查询图像提取局部特征,如SuperPointDISK
  2. 构建参考3D SfM模型
    1. 找到共视的数据库图像,通过检索或先前的SfM模型
    2. 使用SuperGlue或更快的LightGlue匹配这些数据库对
    3. 使用COLMAP三角测量新的SfM模型
  3. 使用检索找到与每个查询相关的数据库图像
  4. 匹配查询图像
  5. 运行定位
  6. 可视化和调试

对于支持的数据集,定位可以在visuallocalization.net上进行评估。当有3D激光雷达扫描可用时,如室内数据集InLoc,可以跳过步骤2。

工具箱结构:

  • hloc/*.py:顶级脚本
  • hloc/extractors/:特征提取器接口
  • hloc/matchers/:特征匹配器接口
  • hloc/pipelines/:多个数据集的完整流程

hloc可以作为外部包导入,使用import hloc,或从命令行调用:

python -m hloc.name_of_script --arg1 --arg2

任务

我们提供了使用Aachen和InLoc进行定位的分步指南,以及使用SfM为你自己的数据生成参考位姿。只需下载数据集,你就可以开始了!

Aachen - 室外定位

查看pipeline_Aachen.ipynb,了解使用Aachen进行定位的分步指南。尝试可视化,试用新的局部特征或匹配器,玩得开心!不喜欢笔记本?你也可以从命令行运行所有脚本。

InLoc - 室内定位

笔记本pipeline_InLoc.ipynb展示了使用InLoc进行定位的步骤。由于不需要3D SfM模型,这个过程要简单得多。

从头开始的SfM重建

我们在pipeline_SfM.ipynb中展示了如何为一组无序图像运行3D重建。这会生成参考位姿,以及适合使用与Aachen相同的流程进行定位的精美稀疏3D模型。

结果

使用NetVLAD进行检索,我们获得了以下最佳结果:

方法亚琛白天亚琛夜晚检索
SuperPoint + SuperGlue89.6 / 95.4 / 98.886.7 / 93.9 / 100NetVLAD 前50个
SuperPoint + NN85.4 / 93.3 / 97.275.5 / 86.7 / 92.9NetVLAD 前30个
D2Net (SS) + NN84.6 / 91.4 / 97.183.7 / 90.8 / 100NetVLAD 前30个
方法InLoc DUC1InLoc DUC2检索
SuperPoint + SuperGlue46.5 / 65.7 / 78.352.7 / 72.5 / 79.4NetVLAD 前40个
SuperPoint + SuperGlue (时序)49.0 / 68.7 / 80.853.4 / 77.1 / 82.4NetVLAD 前40个
SuperPoint + NN39.9 / 55.6 / 67.237.4 / 57.3 / 70.2NetVLAD 前20个
D2Net (SS) + NN39.9 / 57.6 / 67.236.6 / 53.4 / 61.8NetVLAD 前20个

查看 visuallocalization.net/benchmark 获取更多详情和其他基准。

支持的数据集

我们在 hloc/pipelines/ 中提供了脚本,用于在以下数据集上运行重建和定位:Aachen Day-Night(v1.0 和 v1.1)、InLoc、Extended CMU Seasons、RobotCar Seasons、4Seasons、Cambridge Landmarks 和 7-Scenes。例如,按照此处给出的说明下载数据集后,我们可以使用以下命令运行 Aachen Day-Night 管道与 SuperPoint+SuperGlue:

python -m hloc.pipelines.Aachen.pipeline [--outputs ./outputs/aachen]

BibTex 引用

如果您在出版物中报告上述任何结果,或使用此处提供的任何工具,请考虑同时引用 Hierarchical LocalizationSuperGlue 论文:

@inproceedings{sarlin2019coarse,
  title     = {From Coarse to Fine: Robust Hierarchical Localization at Large Scale},
  author    = {Paul-Edouard Sarlin and
               Cesar Cadena and
               Roland Siegwart and
               Marcin Dymczyk},
  booktitle = {CVPR},
  year      = {2019}
}

@inproceedings{sarlin2020superglue,
  title     = {{SuperGlue}: Learning Feature Matching with Graph Neural Networks},
  author    = {Paul-Edouard Sarlin and
               Daniel DeTone and
               Tomasz Malisiewicz and
               Andrew Rabinovich},
  booktitle = {CVPR},
  year      = {2020},
}

更进一步

调试和可视化

[点击展开]

每次定位运行都会生成一个 pickle 日志文件。对于每个查询,它包含选定的数据库图像、它们的匹配项以及来自姿态求解器的信息,如 RANSAC 内点。因此,可以解析它以收集统计数据并分析失败模式或困难场景。

我们还在 hloc/visualization.py 中提供了一些可视化工具,用于可视化 3D SfM 模型的某些属性,如关键点的可见性、轨迹长度或估计的稀疏深度(如下所示)。

使用您自己的局部特征或匹配器

[点击展开]

如果您的代码基于 PyTorch:只需在 hloc/extractors/hloc/matchers/ 中添加一个新接口。它需要继承自 hloc.utils.base_model.BaseModel,将数据字典作为输入,并输出预测字典。参考 hloc/extractors/superpoint.py 作为示例。您还可以在 hloc/extract_features.pyhloc/match_features.py 中定义标准配置 - 然后可以直接从命令行调用它。

如果您的代码基于 TensorFlow:您需要修改 hloc/extract_features.pyhloc/match_features.py,或者自行将特征和匹配导出为 HDF5 文件,如下所述。

在特征文件中,每个键对应于相对于数据集根目录的图像相对路径(例如,Aachen 的 db/1.jpg),并且每个预测有一个数据集(例如,形状为 Nx2 和 DxN 的 keypointsdescriptors)。

在匹配文件中,每个键对应于字符串 path0.replace('/', '-')+'_'+path1.replace('/', '-'),并有一个形状为 N 的数据集 matches0。它表示第一张图像中每个关键点在第二张图像中匹配关键点的索引,如果关键点未匹配则为 -1

使用您自己的图像检索

[点击展开]

hloc 还通过 hloc/extract_features.py 提供了图像检索的接口。如前所述,只需在 hloc/extractors/ 中添加一个新接口。或者,您需要将全局描述符导出到 HDF5 文件中,其中每个键对应于相对于数据集根目录的图像相对路径,并包含大小为 D 的数据集 global_descriptor。然后,您可以使用 hloc/pairs_from_retrieval.py 导出图像对。

已知相机参数的重建

[点击展开]

如果已知相机的校准参数,例如来自外部校准系统,您可以告诉 hloc 使用这些参数,而不是从 EXIF 估算它们。相机模型的名称及其参数由 COLMAP 定义。Python API:

opts = dict(camera_model='SIMPLE_RADIAL', camera_params=','.join(map(str, (f, cx, cy, k))))
model = reconstruction.main(..., image_options=opts)

命令行接口:

python -m hloc.reconstruction [...] --image_options camera_model='"SIMPLE_RADIAL"' camera_params='"256,256,256,0"'

默认情况下,hloc 在重建过程中会优化相机参数。要防止这种情况,请添加:

reconstruction.main(..., mapper_options=dict(ba_refine_focal_length=False, ba_refine_extra_params=False))
python -m hloc.reconstruction [...] --mapper_options ba_refine_focal_length=False ba_refine_extra_params=False

版本

v1.4(2023年7月) - 新前端 - 全局特征:OpenIBL、CosPlace - 图像块描述符:SOSNet、HardNet - 检测器和描述符:DISK - 稀疏匹配:AdaLAM、LightGlue - 密集匹配:LoFTR - 三角测量:使用已知相机姿态进行双视图几何验证 - 控制COLMAP导入和重建选项 - 性能 - 更可靠地跳过匹配文件中的现有对 - 更快的HDF5写入 - match_features中的并行读写 - 为LaMAR添加标量检测不确定性 - 文档 - 更新的依赖要求:tqdm>=4.36.0,pycolmap>=0.3.0,kornia>=0.6.11

v1.3(2022年1月)

  • Google Colab上的演示笔记本
  • 使用新的pycolmap重建对象和流程API
    • 不再需要安装COLMAP - 只需pycolmap即可
    • 更快的模型读写
    • 通过camera_mode参数对相机共享进行精细控制
    • 未知或不准确焦距的定位
  • 模块化定位API,可控制所有估计器参数
  • 使用plotly进行相机视锥和点的3D可视化
  • 在hloc命名空间中进行包特定日志记录
  • 默认将提取的特征存储为fp16而不是fp32
  • 可选修复SuperPoint描述符采样中的长期存在的bug
  • 添加脚本以计算用于重建或定位的详尽配对
  • 要求pycolmap>=0.1.0和Python>=3.7

v1.2(2021年12月)

  • 错误修复和可用性改进。
  • 支持PIL后端进行图像调整大小。
  • 添加__version__属性以检查未来版本。

v1.1(2021年7月)

  • 重大变更:改进SfM文件夹结构(三角测量和重建)
  • 支持图像检索(NetVLAD、DIR)和更多局部特征(SIFT、R2D2)
  • 支持更多数据集:Aachen v1.1、Extended CMU Seasons、RobotCar Seasons、Cambridge Landmarks、7-Scenes
  • 简化的流程和API
  • 空间匹配器

v1.0(2020年7月)

初始公开版本。

欢迎贡献!

非常欢迎外部贡献。请遵循PEP8样式指南,使用flake8等代码检查工具。以下是可能有价值的添加功能的非详尽列表:

  • 支持GPS(从EXIF提取 + 引导检索)
  • InLoc的共视聚类
  • 原始预测的可视化(特征和匹配)
  • 其他局部特征或图像检索

由Paul-Edouard Sarlin创建和维护,得到许多贡献者的帮助。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号