#3D生成

GaussianDreamer - 通过桥接 2D 和 3D 扩散模型从文本快速生成到 3D 高斯
Github开源项目CVPR 2024GaussianDreamer3D生成2D扩散模型3D扩散模型
本文客观介绍了通过整合2D和3D扩散模型的快速3D对象生成框架GaussianDreamer。3D扩散模型提供初始几何信息,而2D扩散模型则增强了其几何和外观。GaussianDreamer在单个GPU上可在15分钟内生成高质量的3D实例,比现有方法更快。生成的3D实例支持实时渲染,可方便地整合到动画和仿真管道中。
ComfyUI-3D-Pack - ComfyUI的多功能3D资产生成节点套件
Github开源项目ComfyUI3D生成3D可视化3D资产AI建模
ComfyUI-3D-Pack为ComfyUI扩展了3D处理能力的节点套件。它集成了3DGS、NeRF等算法和InstantMesh、CRM、TripoSR等模型,实现单图到3D网格的生成、多视图重建和3D可视化。该套件还提供轨道相机姿态生成、3D渲染等工具,简化了3D资产的生成流程。
Awesome-AIGC-3D - 最新生成式3D模型技术和资源汇总
Github开源项目深度学习AIGC扩散模型3D生成神经辐射场
Awesome-AIGC-3D是一个精选的AIGC 3D论文资源列表,涵盖了从物体到场景生成的多种3D生成方法。项目包括最新的扩散模型、神经辐射场等技术,并收录了相关综述文章、基准数据集和实现代码。这为3D生成领域的研究人员和开发者提供了全面的技术参考。
GeoDream - 融合2D和几何先验实现高保真一致的3D生成
Github开源项目3D生成多视角一致性GeoDream文本到3DUni3D-score
GeoDream是一种创新的3D生成方法,通过结合广义3D先验和2D扩散先验,提高了生成一致3D几何结构的能力,同时保持多样性和保真度。该方法生成的3D纹理网格具有更高一致性,可渲染1024x1024分辨率的逼真图像,并改善语义连贯性。GeoDream还首次提出Uni3D-score指标,将语义一致性评估从2D提升到3D。
Awesome-Text-to-3D - 文本到3D生成技术的最新研究进展概览
Github开源项目生成式AI扩散模型3D生成神经辐射场Text-to-3D
Awesome-Text-to-3D是一个汇集文本到3D和扩散到3D领域最新研究成果的开源项目。它涵盖了从零样本文本引导对象生成到高保真3D人脸生成等多个方向的前沿论文。项目定期更新,并提供教程视频和引用信息,为研究人员和开发者提供了跟踪该领域进展的综合资源。
Free3D - 基于单视图的一致性多视角图像合成技术
Github开源项目计算机视觉3D生成新视角合成单视图重建Free3D
Free3D是牛津大学VGG实验室开发的新型计算机视觉技术,可从单一图像生成一致性的多视角合成图,无需显式3D表示。该技术采用射线条件归一化和伪3D注意力机制,在Objaverse等多个数据集上展现优异性能。Free3D为计算机视觉和图形学领域提供了新的研究方向,有望应用于3D重建、虚拟现实等多个领域。
MVDream - 多视角扩散模型实现高质量3D内容生成
Github开源项目深度学习3D生成AI视觉MVDream多视角扩散模型
MVDream是一个开源的多视角扩散模型项目,用于3D内容生成。项目在GitHub上提供两个代码仓库:多视角扩散模型(https://github.com/bytedance/MVDream)和集成SDS技术的3D生成(https://github.com/bytedance/MVDream-threestudio)。由字节跳动研究团队开发,为计算机视觉和3D生成领域提供新的工具和方法。
MeshAnythingV2 - 艺术家级3D网格模型生成技术
Github开源项目AI模型3D生成计算机图形学网格生成MeshAnything V2
MeshAnything V2是一个创新的3D网格模型生成项目,采用相邻网格分词技术,生成高质量的艺术家级模型。该项目可接受文本、图像或现有网格模型作为输入,输出最多包含1600个面的精细3D模型。项目提供命令行接口和Gradio演示界面,方便用户创建复杂3D模型。适用于需要快速生成高质量3D网格模型的场景。
SV3D Online - 单一图像生成3D视频与多角度视图技术
图像处理AI工具3D生成AI建模Stable Video 3D多视图合成
SV3D Online基于Stable Video 3D技术,实现单一图像到多角度视图和3D视频的转换。平台提供高质量新视角合成和3D生成功能,包括SV3D_u轨道视频生成和SV3D_p指定路径3D视频生成两种变体。网站还提供全面的学习资源和FAQ,是探索Stable Video 3D技术的综合平台。
imagedream-ipmv-diffusers - 多视角扩散模型用于3D图像生成
Github开源项目模型Huggingface3D生成使用限制MVDream-diffusers图像扩散
该项目是ImageDream模型在diffusers中的移植版本,展示了基于图像提示的多视角扩散技术在3D生成中的能力。用户可前往GitHub获得使用指南。由Wang及其团队发布于2023年的arXiv。请注意,模型禁止用于生成或传播可能引发敌对环境的图像,或传播可能会打扰、困扰或冒犯公众,以及涉及历史或当代偏见的内容。