Project Icon

BAD-Gaussians

基于高斯散射的3D场景去模糊重建与新视角合成技术

BAD-Gaussians是一种创新的3D场景重建方法,结合束调整和高斯散射技术,有效处理运动模糊图像。该方法不仅能实现高质量的图像去模糊,还可合成新视角场景。基于nerfstudio框架实现,BAD-Gaussians支持多种数据集和训练模式,为计算机视觉和图形学研究提供了有力工具。

😈BAD-Gaussians: Bundle-Adjusted Deblur 高斯散射

这是我们 arXiv 2024 论文 BAD-Gaussians: Bundle Adjusted Deblur Gaussian Splatting 的官方实现,基于 nerfstudio 框架。

演示

Deblur-NeRF 的真实世界运动模糊数据上的去模糊和新视角合成结果:

左:BAD-Gaussians 去模糊的新视角渲染结果;

右:输入图像。

快速开始

1. 安装

你可以查看原始 nerfstudio 仓库了解先决条件和依赖项。 目前,我们的代码库已在 nerfstudio v1.0.3 上进行测试。

简而言之:你可以通过以下方式安装 nerfstudio

# (可选) 创建一个新的 conda 环境
conda create --name nerfstudio -y "python<3.11"
conda activate nerfstudio

# 安装依赖
pip install --upgrade pip setuptools
pip install "torch==2.1.2+cu118" "torchvision==0.16.2+cu118" --extra-index-url https://download.pytorch.org/whl/cu118

conda install -c "nvidia/label/cuda-11.8.0" cuda-toolkit
pip install ninja git+https://github.com/NVlabs/tiny-cuda-nn/#subdirectory=bindings/torch

# 安装 nerfstudio!
pip install nerfstudio==1.0.3

然后你可以将此仓库作为 Python 包安装:

pip install git+https://github.com/WU-CVGL/BAD-Gaussians

2. 准备数据集

Deblur-NeRF 合成数据集(重新渲染)

如之前 BAD-NeRF 论文所述,我们对 Deblur-NeRF 的合成数据集进行了重新渲染,每张模糊图像有 51 个插值。

此外,在之前的 BAD-NeRF 论文中,我们直接在只有模糊图像的情况下运行 COLMAP,既没有真实相机内参也没有清晰的新视角图像。我们发现这对 COLMAP 来说相当具有挑战性 - 它可能无法重建场景,我们需要多次重新运行 COLMAP。为此,我们提供了一组新数据,其中我们使用真实相机内参在模糊和清晰的新视角图像上运行 COLMAP,命名为 bad-nerf-gtK-colmap-nvs

下载链接

Deblur-NeRF 真实数据集

你可以直接从 Deblur-NeRF 下载 real_camera_motion_blur 文件夹。

你的自定义数据集

  1. 使用 Nerfstudio 的 ns-process-data 工具 处理 deblur-nerf 训练图像。

    例如,如果 BAD-NeRF 的数据集llff_data 中,执行:

    ns-process-data images \
        --data llff_data/blurtanabata/images \
        --output-dir data/my_data/blurtanabata
    
  2. 文件夹 data/my_data/blurtanabata 已准备就绪。

注意:尽管 nerfstudio 不为 LLFF 数据建模 NDC 场景收缩,但我们发现 scale_factor = 0.25 在 LLFF 数据集上效果很好。 如果你的数据是以 LLFF 方式 捕获的(即前向视角),而不是像 Mip-NeRF 360 那样以物体为中心, 你可以将 scale_factor = 0.25 参数传递给 nerfstudio 数据解析器(在我们的 DeblurNerfDataParser 中已设置为默认值), 例如,ns-train bad-gaussians --data data/my_data/my_seq --vis viewer+tensorboard nerfstudio-data --scale_factor 0.25

3. 训练

  1. 对于 Deblur-NeRF 合成 数据集,使用以下命令训练:

    ns-train bad-gaussians \
        --data data/bad-nerf-gtK-colmap-nvs/blurtanabata \
        --pipeline.model.camera-optimizer.mode "linear" \
        --vis viewer+tensorboard \
        deblur-nerf-data
    

    其中

    • --data data/bad-nerf-gtK-colmap-nvs/blurtanabata 是数据序列的相对路径;
    • --pipeline.model.camera-optimizer.mode "linear" 启用线性相机姿态插值
    • --vis viewer+tensorboard 启用查看器和 tensorboard 指标保存
    • deblur-nerf-data 选择 DeblurNerfDataparser
  2. 对于 Deblur-NeRF 真实 数据集,使用 downscale_factor=4 训练:

    ns-train bad-gaussians \
        --data data/real_camera_motion_blur/blurdecoration \
        --pipeline.model.camera-optimizer.mode "cubic" \
        --vis viewer+tensorboard \
        deblur-nerf-data \
        --downscale_factor 4
    

    其中

    • --pipeline.model.camera-optimizer.mode "cubic" 启用三次 B 样条;
    • --downscale_factor 4deblur-nerf-data 之后告诉 DeblurNerfDataparser 将图像的宽度和高度缩小到原始的 1/4
  3. 对于 Deblur-NeRF 真实 数据集,使用全分辨率训练:

    ns-train bad-gaussians \
        --data data/real_camera_motion_blur/blurdecoration \
        --pipeline.model.camera-optimizer.mode "cubic" \
        --pipeline.model.camera-optimizer.num_virtual_views 15 \
        --pipeline.model.num_downscales 2 \
        --pipeline.model.resolution_schedule 3000 \
        --vis viewer+tensorboard \
        deblur-nerf-data
    

    其中

    • --pipeline.model.camera-optimizer.mode "cubic" 启用三次 B 样条;
    • --pipeline.model.camera-optimizer.num_virtual_views 15 将虚拟相机数量增加到 15;
    • --pipeline.model.num_downscales 2--pipeline.model.resolution_schedule 3000 启用粗到细训练。
  4. 对于使用 ns-process-data 处理的自定义数据,使用以下命令训练:

    ns-train bad-gaussians \
        --data data/my_data/blurtanabata \
        --vis viewer+tensorboard \
        nerfstudio-data --eval_mode "all"
    

    注意:为了提高自定义数据集的重建质量,你可能需要添加一些参数以启用三次 B 样条更多虚拟相机粗到细训练,如上面的示例所示。

4. 渲染视频

此命令将生成一个轨迹,使用训练图像的相机姿态,保持它们的原始顺序,在相邻图像之间插入 10 帧,帧率为 30。它将加载 config.yml 并将视频保存到 renders/<your_filename>.mp4

ns-render interpolate \
  --load-config outputs/blurtanabata/bad-gaussians/<your_experiment_date_time>/config.yml \
  --pose-source train \
  --frame-rate 30 \
  --interpolation-steps 10 \
  --output-path renders/<your_filename>.mp4

注意1:你可以添加 --render-nearest-camera True 选项来与模糊的输入进行比较,但这会显著降低渲染速度。

注意2:执行此命令时的工作目录必须是 outputs 的父目录,即与训练时相同的目录。

注意3:你可以在 nerfstudio 文档 中找到更多关于这个命令的信息。

5. 导出3D高斯分布

此命令将加载 config.yml 并在同一文件夹中导出 splat.ply

ns-export gaussian-splat \
    --load-config outputs/blurtanabata/bad-gaussians/<你的实验日期时间>/config.yml \
    --output-dir outputs/blurtanabata/bad-gaussians/<你的实验日期时间>

注意1:我们默认使用 rasterize_mode = antialiased。但是,如果你想导出3D高斯分布,由于大多数3D-GS查看器不支持 antialiased 模式(即 Mip-Splatting),最好在训练时使用以下命令关闭它:--pipeline.model.rasterize_mode "classic"

注意2:执行此命令时的工作目录必须是 outputs 的父目录,即与训练时相同的目录。

然后你可以使用任何查看器来可视化这个文件,例如 WebGL 查看器

6. 使用IDE进行调试

用你的IDE打开这个仓库,创建一个配置,并将执行的Python脚本路径设置为 <nerfstudio_路径>/nerfstudio/scripts/train.py,并使用上述参数。

引用

如果你觉得这个工作有用,请考虑引用:

@article{zhao2024badgaussians,
  title={Bad-gaussians: Bundle adjusted deblur gaussian splatting},
  author={Zhao, Lingzhe and Wang, Peng and Liu, Peidong},
  journal={arXiv preprint arXiv:2403.11831},
  year={2024}
}

致谢

  • 感谢 Nerfstudiogsplat 的贡献者们的出色工作:

    @inproceedings{nerfstudio,
        title        = {Nerfstudio: A Modular Framework for Neural Radiance Field Development},
        author       = {
            Tancik, Matthew and Weber, Ethan and Ng, Evonne and Li, Ruilong and Yi, Brent
            and Kerr, Justin and Wang, Terrance and Kristoffersen, Alexander and Austin,
            Jake and Salahi, Kamyar and Ahuja, Abhik and McAllister, David and Kanazawa,
            Angjoo
        },
        year         = 2023,
        booktitle    = {ACM SIGGRAPH 2023 Conference Proceedings},
        series       = {SIGGRAPH '23}
    }
    
    @software{Ye_gsplat,
        author  = {Ye, Vickie and Turkulainen, Matias, and the Nerfstudio team},
        title   = {{gsplat}},
        url     = {https://github.com/nerfstudio-project/gsplat}
    }
    
    @misc{ye2023mathematical,
        title={Mathematical Supplement for the $\texttt{gsplat}$ Library}, 
        author={Vickie Ye and Angjoo Kanazawa},
        year={2023},
        eprint={2312.02121},
        archivePrefix={arXiv},
        primaryClass={cs.MS}
    }
    
  • 感谢 pypose 的贡献者们的出色库:

    @inproceedings{wang2023pypose,
    title = {{PyPose}: A Library for Robot Learning with Physics-based Optimization},
    author = {Wang, Chen and Gao, Dasong and Xu, Kuan and Geng, Junyi and Hu, Yaoyu and Qiu, Yuheng and Li, Bowen and Yang, Fan and Moon, Brady and Pandey, Abhinav and Aryan and Xu, Jiahe and Wu, Tianhao and He, Haonan and Huang, Daning and Ren, Zhongqiang and Zhao, Shibo and Fu, Taimeng and Reddy, Pranay and Lin, Xiao and Wang, Wenshan and Shi, Jingnan and Talak, Rajat and Cao, Kun and Du, Yi and Wang, Han and Yu, Huai and Wang, Shanzhao and Chen, Siyu and Kashyap, Ananth  and Bandaru, Rohan and Dantu, Karthik and Wu, Jiajun and Xie, Lihua and Carlone, Luca and Hutter, Marco and Scherer, Sebastian},
    booktitle = {IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
    year = {2023}
    }
    
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

问小白

问小白是一个基于 DeepSeek R1 模型的智能对话平台,专为用户提供高效、贴心的对话体验。实时在线,支持深度思考和联网搜索。免费不限次数,帮用户写作、创作、分析和规划,各种任务随时完成!

Project Cover

白日梦AI

白日梦AI提供专注于AI视频生成的多样化功能,包括文生视频、动态画面和形象生成等,帮助用户快速上手,创造专业级内容。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

讯飞绘镜

讯飞绘镜是一个支持从创意到完整视频创作的智能平台,用户可以快速生成视频素材并创作独特的音乐视频和故事。平台提供多样化的主题和精选作品,帮助用户探索创意灵感。

Project Cover

讯飞文书

讯飞文书依托讯飞星火大模型,为文书写作者提供从素材筹备到稿件撰写及审稿的全程支持。通过录音智记和以稿写稿等功能,满足事务性工作的高频需求,帮助撰稿人节省精力,提高效率,优化工作与生活。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

Trae

Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号