Project Icon

richdreamer

基于法线-深度扩散模型的高细节文本到3D生成技术

RichDreamer是一种基于法线-深度扩散技术的文本到3D生成模型,能创建细节丰富的3D内容。它结合了多视图法线-深度和反照率扩散模型,生成高质量3D资产。项目开源了代码、预训练模型,并提供在线演示,为3D内容创作提供了实用解决方案。



RichDreamer

RichDreamer: 一个可泛化的基于法线深度扩散模型的文本到3D细节丰富生成方法。

邱凌腾*, 陈冠英*, 顾晓东*, 左琪, 徐牧天, 吴宇爽, 袁维昊, 董子龙, 柏立峰, 韩晓光

如果您熟悉中文,可以阅读中文版本的README

我们的方法基于法线深度扩散模型,更多详情请参考normal-depth-diffusion

项目主页 | 论文 | YouTube视频 | ND-扩散模型 | 3D渲染数据集

richdreamer

待办事项 :triangular_flag_on_post:

  • 文本到ND扩散模型
  • 多视图ND和多视图反照率扩散模型
  • 发布代码
  • ModelScope的3D物体生成上提供生成试用
  • Docker镜像

新闻

  • RichDreamer被CVPR2024接收。(亮点) (2024年4月4日 UTC)
  • ModelScope的3D物体生成上线。快来试试 :fire::fire::fire: (2023年12月22日 UTC)
  • 发布RichDreamer :fire::fire::fire: (2023年12月11日 UTC)

架构

架构

安装

  • 系统要求:Ubuntu20.04
  • 测试过的GPU:RTX4090,A100

使用以下脚本安装依赖。

git clone https://github.com/modelscope/RichDreamer.git --recursive
conda create -n rd
conda activate rd
# 安装threestudio的依赖
pip install -r requirements_3d.txt

我们还提供了一个dockerfile来构建docker镜像,或者使用我们构建好的docker镜像

sudo docker build -t mv3dengine_22.04:cu118 -f docker/Dockerfile .
# 或者使用我们构建好的docker镜像
sudo docker pull registry.cn-hangzhou.aliyuncs.com/ailab-public/aigc3d

下载预训练权重。

  1. 多视图法线深度扩散模型(ND-MV)
  2. 多视图深度条件反照率扩散模型(Alebdo-MV)

或者你可以使用以下脚本下载权重。

python tools/download_nd_models.py
# 复制256_tets文件用于dmtet
cp ./pretrained_models/Damo_XR_Lab/Normal-Depth-Diffusion-Model/256_tets.npz ./load/tets/
# 将你的huggingface模型链接到./pretrained_models/huggingface
cd pretrained_models && ln -s ~/.cache/huggingface ./

如果你无法访问huggingface下载SD 1.5、SD 2.1和CLIP,你可以从阿里云下载SD和CLIP模型,然后将$download_sd_clip文件放到pretrained_models/huggingface/hub/

mkdir -p pretrained_models/huggingface/hub/
cd pretrained_models/huggingface/hub/
mv /path/to/${download_sd_clip} ./
tar -xvf ${download_sd_clip} ./

生成

确保你有以下模型。

RichDreamer
|-- pretrained_models
    |-- Damo_XR_Lab
        |-- Normal-Depth-Diffusion-Model
            |-- nd_mv_ema.ckpt
            |-- albedo_mv_ema.ckpt
    
    |-- huggingface
        |-- hub
            |-- models--runwayml--stable-diffusion-v1-5
            |-- models--openai--clip-vit-large-patch14
            |-- models--stabilityai--stable-diffusion-2-1-base
            |-- models--laion--CLIP-ViT-H-14-laion2B-s32B-b79K

注意我们在所有*.sh文件中运行命令之前设置了环境变量TRANSFORMERS_OFFLINE=1 DIFFUSERS_OFFLINE=1 HF_HUB_OFFLINE=1,以防止每次都连接到huggingface。 如果你使用上述脚本下载SD和CLIP模型,则无需任何操作。如果通过huggingface api下载,在首次运行时,需要在*.sh文件中设置TRANSFORMERS_OFFLINE=0 DIFFUSERS_OFFLINE=0 HF_HUB_OFFLINE=0,它将连接到hugging face并自动下载模型。

我们的(NeRF)

# 快速开始,单个A-100 80G
python3 ./run_nerf.py -t $prompt -o $output

# 从提示列表运行
# 例如 bash ./scripts/nerf/run_batch.sh 0 1 ./prompts_nerf.txt
# 我们还提供run_batch_res256.sh来使用高分辨率渲染图像进行优化,以获得更好的结果,但会消耗更多内存和时间。
bash ./scripts/nerf/run_batch.sh $start_id $end_id ${prompts_nerf.txt}

# 如果你没有A-100设备,我们提供了一个节省内存的版本来生成结果。
# 适用于单个GTX-3090/4090,24GB显存。
# 例如 bash ./scripts/nerf/run_batch_fast.sh 0 1 ./prompts_nerf.txt
# 或者 python3 ./run_nerf.py -t "a dog, 3d asset" -o ./outputs/nerf --img_res 128 --save_mem 1
bash ./scripts/nerf/run_batch_fast.sh $start_id $end_id ${prompts_nerf.txt}
# 或者使用:
python3 ./run_nerf.py -t "$prompt" -o $output --img_res 128 --save_mem 1

我们的(DMTet)

DMTet训练技巧

1. 高分辨率渲染:

我们发现直接优化高分辨率DMTet球体比NeRF方法更具挑战性。例如,Fantasia3D和SweetDreamer都需要4或8个GPU进行优化,这对大多数人来说很难获得。在实验过程中,我们观察到当我们将DMTet的渲染分辨率提高到1024时,优化变得显著更稳定。这个技巧使我们能够仅使用单个GPU从DMTet进行优化,这在之前是不可行的。

2. PBR建模:

Fantasia3D提供了三种进行PBR建模的策略。如果你不需要生成支持重新照明的模型,只是为了增强真实感,我们建议使用fantasia3d_2采样策略。否则我们建议你使用fantasia3d strategy_0和我们的depth condition albedo-sds

# 快速开始,单个A-100 80G
python3 ./run_dmtet.py -t "$prompt" -o $output

# 从提示列表运行
# 例如 bash ./scripts/nerf/run_batch.sh 0 1 ./prompts_dmtet.txt
bash ./scripts/dmtet/run_batch.sh $start_id $end_id ${prompts_dmtet.txt} 

# 如果你没有A-100设备,我们提供了一个节省内存的版本来生成结果。
# 适用于单个GTX-3090/4090,24GB显存。
# bash ./scripts/dmtet/run_batch_fast.sh 0 1 ./prompts_dmtet.txt
bash ./scripts/dmtet/run_batch_fast.sh $start_id $end_id ${prompts_dmtet.txt}

致谢

本工作基于许多令人惊叹的研究工作和开源项目:

感谢他们在3D生成领域的出色工作和巨大贡献。

我们要特别感谢陈锐在训练Fantasia3D和PBR建模方面的宝贵讨论。

此外,我们衷心感谢徐超在进行重新照明实验方面提供的帮助。

引用

@inproceedings{qiu2024richdreamer,
  title={Richdreamer: A generalizable normal-depth diffusion model for detail richness in text-to-3d},
  author={Qiu, Lingteng and Chen, Guanying and Gu, Xiaodong and Zuo, Qi and Xu, Mutian and Wu, Yushuang and Yuan, Weihao and Dong, Zilong and Bo, Liefeng and Han, Xiaoguang},
  booktitle={Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition},
  pages={9914--9925},
  year={2024}
}
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号