Project Icon

tetra-nerf

四面体表示法提升神经辐射场渲染效率

Tetra-NeRF是一种创新的神经辐射场表示方法,通过四面体结构提高渲染效率和质量。该方法将输入点云三角化为四面体集合,使用重心插值和浅层MLP进行体积渲染。在Blender、Tanks and Temples及Mip-NeRF 360等数据集上表现出色。项目提供完整实现代码、预训练模型和详细使用说明,便于研究人员复现和拓展。

四面体NeRF 四面体NeRF论文的官方实现

项目页面 | 论文 | 演示

四面体NeRF:使用四面体表示神经辐射场
Jonas Kulhanek1Torsten Sattler1
1 捷克技术大学

方法概述
四面体NeRF的输入是一个点云,经过三角剖分得到一组四面体,用于表示辐射场。采样射线并查询该场。使用重心插值来插值四面体顶点,将结果特征传递给一个浅层的多层感知机以获得体积渲染的密度和颜色。

演示 blender lego (稀疏) 演示 mipnerf360 garden (稀疏) 演示 mipnerf360 garden (稀疏) 演示 mipnerf360 kitchen (密集)


更新! 四面体NeRF现在更快且性能更好,这要归功于使用有偏采样而不是沿射线均匀采样。 论文中的配置已更名为 tetra-nerf-originaltetra-nerf 现在指向新的配置。

简介

首先安装四面体NeRF。安装说明见安装部分。 如果您想复现论文中的结果,请按照复现结果部分的说明操作,它将指导您下载数据并运行训练。我们还发布了生成的图像。

如果您想使用四面体NeRF处理自己收集的数据,请按照使用自定义数据部分的说明操作。

使用自定义数据

在使用自己的图像进行训练时,首先需要COLMAP模型来获取相机姿态和稀疏点云。 您可以自己运行COLMAP或使用我们的脚本以默认COLMAP参数构建模型。 首先准备一个包含您数据的文件夹。在该文件夹中,创建一个名为images的子文件夹,并将所有图像复制到其中。

没有现有的COLMAP模型

只需运行以下命令:

python -m tetranerf.scripts.process_images --path <数据文件夹>

此命令将从所有图像创建一个单一的稀疏COLMAP模型,用于相机姿态和输入点云。 但是,如果您关心正确的评估,则希望输入点云仅由训练图像构建。在这种情况下,可以使用 --separate-training-pointcloud 标志。 启用此标志后,该脚本将创建两个稀疏模型: 第一个使用所有图像获取所有图像的相机姿态,第二个仅使用训练图像。

最后,开始训练:

ns-train tetra-nerf colmap --data <数据文件夹>

有现有的COLMAP

如果您已经有一个稀疏的COLMAP模型,请将其移动到数据文件夹。文件夹结构应该如下所示:

images
  ...
sparse
  0
    cameras.bin
    ...

最后,开始训练:

ns-train tetra-nerf colmap --data <数据文件夹>

复现结果

我们首先介绍如何下载和预处理数据,然后运行训练。我们还发布了生成的图像。

获取数据

首先,请下载并解压缩数据集。

接下来必须转换姿势,以便在 NerfStudio 中加载。确保安装了 COLMAP 和 FFmpeg。 如果没有安装 COLMAP,可以按照这里的说明进行安装: https://colmap.github.io/install.html,或者您可以使用 conda 进行安装。 使用以下命令转换数据并生成输入四面体。

  • 对于 Blender 数据集中的每个场景,运行以下命令:
python -m tetranerf.scripts.process_blender --transforms data/blender/<场景>/transforms_train.json --output data/blender/<场景>
python -m tetranerf.scripts.triangulate --pointcloud data/blender/<场景>/sparse.ply --output data/blender/<场景>/sparse-1.th --random-points-ratio 1
python -m tetranerf.scripts.triangulate --pointcloud data/pointnerf-blender/pointnerf-colmap-<场景>.ply --output data/blender/<场景>/pointnerf-0.5.th --random-points-ratio 0.5
  • 对于 Tanks and Temples 数据集中的每个场景,运行以下命令:
python -m tetranerf.scripts.process_tanksandtemples --path data/nsvf-tanks-and-temples/<场景> --output data/nsvf-tanks-and-temples/<场景>
python -m tetranerf.scripts.triangulate --pointcloud data/nsvf-tanks-and-temples/<场景>/dense.ply --output data/nsvf-tanks-and-temples/<场景>/dense-1M.th
  • 对于 Mip-NeRF 360 数据集中的每个场景,运行以下命令:
python -m tetranerf.scripts.process_mipnerf360 --downscale-factor <2 对于室内, 4 对于室外场景> --run-dense --path data/mipnerf360/<场景>
python -m tetranerf.scripts.triangulate --pointcloud data/mipnerf360/<场景>/sparse.ply --output data/mipnerf360/<场景>/sparse-1.th --random-points-ratio 1
python -m tetranerf.scripts.triangulate --pointcloud data/mipnerf360/<场景>/dense.ply --output data/mipnerf360/<场景>/dense-1M.th

训练的运行 要运行训练,请使用以下命令:

  • 对于 Blender 数据集, 运行以下命令:
ns-train tetra-nerf-original --pipeline.model.tetrahedra-path data/blender/<scene>/pointnerf-0.5.th blender-data --data data/blender/<scene>
  • 对于 Tanks and Temples 数据集, 运行以下命令:
ns-train tetra-nerf-original --pipeline.model.tetrahedra-path data/nsvf-tanks-and-temples/<scene>/dense-1M.th minimal-parser --data data/nsvf-tanks-and-temples/<scene>
  • 对于 Mip-NeRF 360 数据集, 运行以下命令:
ns-train tetra-nerf-original --pipeline.model.tetrahedra-path data/mipnerf360/<scene>/dense-1M.th minimal-parser --data data/mipnerf360/<scene>

安装 首先,请确保安装以下内容:

CUDA (>=11.3)
PyTorch (>=1.12.1)
Nerfstudio (>=0.2.0)
OptiX (>=7.2,<=7.6, preferably 7.6)
CGAL
CMake (>=3.22.1)

我们建议使用conda环境, CMake, CGAL, torch 可以使用conda install轻松安装。 我们的代码经过 python 3.10 测试, 但任何 python>=3.7 也应该得到支持。 您可以按照 nerfstudio 仓库中的 "入门" 部分 https://github.com/nerfstudio-project/nerfstudio#readme。 请确保 Nerfstudio 已安装并正常工作。如果运行 ns-train 没有任何错误信息, 就表示安装正常。您也可以通过运行以下命令测试 torch 安装:

python -c 'import torch; import torch.utils.cpp_extension;arch=(";".join(sorted(set(x.split("_")[-1] for x in torch.utils.cpp_extension._get_cuda_arch_flags()))));print(f"CUDA: {torch.version.cuda}, compute: {arch}")'

这将输出您的 CUDA 版本和 CUDA 计算能力,应该大于 61, 理想情况下为 86。

OptiX 库可以从这里安装 https://developer.nvidia.com/designworks/optix/downloads/legacy。 如果您将其安装到非标准路径,请在构建 Tetra-NeRF 时设置环境变量 OPTIX_PATH=/path/to/optix

最后, 您可以通过运行以下命令安装 Tetra-NeRF:

git clone https://github.com/jkulhanek/tetra-nerf
cd tetra-nerf
cmake .
make 
pip install -e .

Docker 或者, 您也可以在 docker 镜像中运行 Tetra-NeRF:

docker pull kulhanek/tetra-nerf:latest
docker run --rm -it --gpus all -p 7007:7007 kulhanek/tetra-nerf:latest

请注意, 需要正确安装和配置 nvidia-container-toolkit

您也可以构建自定义镜像。请遵循附带的 Dockerfile 中的说明。

预测 为了更容易与我们的方法进行比较, 我们还提供了测试集的预测图像。

数据集预测输入四面体
Mip-NeRF 360 (公开场景)下载下载
Blender下载下载
Tanks and Temples下载下载

感谢 这个项目是建立在 NerfStudio 之上的
NerfStudio logo
快速光线追踪是由 NVIDIA OptiX 提供的

引用 如果您使用了我们的工作或在此基础上进行构建,请使用以下引用:

@article{kulhanek2023tetranerf,
  title={{T}etra-{NeRF}: Representing Neural Radiance Fields Using Tetrahedra},
  author={Kulhanek, Jonas and Sattler, Torsten},
  journal={arXiv preprint arXiv:2304.09987},
  year={2023},
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号