Project Icon

SegmentAnythingin3D

NeRF模型的三维目标分割框架SA3D

SA3D是一个创新的三维目标分割框架,基于神经辐射场(NeRF)模型。它允许用户通过单一视图的手动提示,快速获取目标对象的3D分割结果。SA3D支持点提示和文本提示输入,处理时间约为2分钟。该框架在建筑、室内场景和复杂物体等多种应用场景中展现了良好的适应性,为3D场景感知和虚拟现实内容创作提供了新的可能。项目还包含直观的图形界面,便于研究人员和开发者进行快速实验和应用开发。

使用NeRFs实现Segment Anything🤖️的3D分割(SA3D)

项目主页 | arXiv论文

使用NeRFs在3D空间中实现Segment Anything
Jiazhong Cen1*, Zanwei Zhou1*, Jiemin Fang2,3†, Chen Yang1, Wei Shen1✉, Lingxi Xie2, Dongsheng Jiang2, Xiaopeng Zhang2, Qi Tian2
1上海交通大学AI研究所   2华为公司   3华中科技大学电子信息与通信学院
*表示贡献相同
†表示项目负责人

给定一个NeRF模型,只需从单一视角输入提示,即可获得3D模型。

我们提出了一种名为SA3D的新型框架,用于在3D空间中实现Segment Anything。给定一个神经辐射场(NeRF)模型,SA3D允许用户通过在单个渲染视图中一次性手动提示,获得任意目标对象的3D分割结果。获取目标3D模型的整个过程可以在约2分钟内完成,且无需任何工程优化。我们的实验证明了SA3D在不同场景中的有效性,凸显了SAM在3D场景感知中的潜力。

更新

  • 2024/04/16:我们发布了SA3D的3D-GS版本(点击此处)。现在3D分割可以在几秒钟内完成!
  • 2023/11/11:我们发布了SA3D的nerfstudio版本(点击此处)!目前仅支持文本提示作为输入。
  • 2023/06/29:我们现在支持使用MobileSAM作为分割网络。按照MobileSAM中的安装说明进行操作,然后将mobile_sam.pt下载到./dependencies/sam_ckpt文件夹中。您可以使用--mobile_sam切换到MobileSAM。

整体流程

SA3D_pipeline

通过输入提示,SAM从相应视图中分割出目标对象。获得的2D分割掩码通过密度引导的逆渲染投影到3D掩码网格上。然后渲染其他视图的2D掩码,这些掩码大多不完整,但作为跨视图自提示再次输入SAM。可以获得完整的掩码并投影到掩码网格上。这个过程以迭代方式执行,最终可以学习到准确的3D掩码。SA3D可以有效地适应各种辐射场,无需任何额外的重新设计。

安装

git clone https://github.com/Jumpat/SegmentAnythingin3D.git
cd SegmentAnythingin3D

conda create -n sa3d python=3.10
conda activate sa3d
pip install -r requirements.txt

SAM和Grounding-DINO:

# 安装SAM
mkdir dependencies; cd dependencies 
mkdir sam_ckpt; cd sam_ckpt
wget https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth
git clone git@github.com:facebookresearch/segment-anything.git 
cd segment-anything; pip install -e .

# 安装Grounding-DINO
git clone https://github.com/IDEA-Research/GroundingDINO.git
cd GroundingDINO/; pip install -e .
mkdir weights; cd weights
wget https://github.com/IDEA-Research/GroundingDINO/releases/download/v0.1.0-alpha/groundingdino_swint_ogc.pth

下载数据

我们现在发布了这些数据集的配置:

数据结构:

(点击展开)
data
├── 360_v2             # 链接: https://jonbarron.info/mipnerf360/
│   └── [bicycle|bonsai|counter|garden|kitchen|room|stump]
│       ├── poses_bounds.npy
│       └── [images|images_2|images_4|images_8]
│
├── nerf_llff_data     # 链接: https://drive.google.com/drive/folders/14boI-o5hGO9srnWaaogTU5_ji7wkX2S7
│   └── [fern|flower|fortress|horns|leaves|orchids|room|trex]
│       ├── poses_bounds.npy
│       └── [images|images_2|images_4|images_8]
│
└── lerf_data               # 链接: https://drive.google.com/drive/folders/1vh0mSl7v29yaGsxleadcj-LCZOE_WEWB
    └── [book_store|bouquet|donuts|...]
        ├── transforms.json
        └── [images|images_2|images_4|images_8]

使用方法

  • 训练NeRF
    python run.py --config=configs/llff/fern.py --stop_at=20000 --render_video --i_weights=10000
    
  • 在GUI中运行SA3D
    python run_seg_gui.py --config=configs/llff/seg/seg_fern.py --segment \
    --sp_name=_gui --num_prompts=20 \
    --render_opt=train --save_ckpt
    
  • 渲染并保存飞行视频
    python run_seg_gui.py --config=configs/llff/seg/seg_fern.py --segment \
    --sp_name=_gui --num_prompts=20 \
    --render_only --render_opt=video --dump_images \
    --seg_type seg_img seg_density
    

运行SA3D时的一些提示:

  • 当目标物体极不规则时(如LLFF场景中的蕨类和霸王龙),请增加 --num_prompts 的值;
  • 使用 --seg_poses 指定用于训练3D掩码的相机姿态序列,默认值为'train',可选项为['train', 'video']

使用我们基于Dash的图形界面:

  • 选择要使用的提示类型,目前支持:点提示文本提示
    • 点提示: 在下拉菜单中选择;点击原始图像添加点提示,然后SAM将生成候选掩码;点击清除点可清除之前的输入;

    • 文本提示: 在下拉菜单中选择文本;输入您的文本提示并点击生成以获取候选掩码;注意,不合理的文本输入可能会导致错误。

  • 选择目标掩码;
  • 按下开始训练运行SA3D;我们可视化由跨视图自提示策略生成的渲染掩码和SAM预测结果;
  • 等待几分钟即可看到最终渲染结果。

待办事项

  • 完善图形界面,例如,从任何训练视图开始,添加更多训练超参数选项等;
  • 在图形界面中支持两阶段处理;目前可能存在一些bug。

一些可视化样本

SA3D可以处理各种场景的3D分割。在我们的项目页面上查看更多演示。

前向场景360°多目标

致谢

感谢以下项目的宝贵贡献:

引用

如果您发现这个项目对您的研究有帮助,请考虑引用该报告并给予一个⭐。

@inproceedings{cen2023segment,
      title={Segment Anything in 3D with NeRFs}, 
      author={Jiazhong Cen and Zanwei Zhou and Jiemin Fang and Chen Yang and Wei Shen and Lingxi Xie and Dongsheng Jiang and Xiaopeng Zhang and Qi Tian},
      booktitle    = {NeurIPS},
      year         = {2023},
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号