#3D生成
GaussianDreamer
本文客观介绍了通过整合2D和3D扩散模型的快速3D对象生成框架GaussianDreamer。3D扩散模型提供初始几何信息,而2D扩散模型则增强了其几何和外观。GaussianDreamer在单个GPU上可在15分钟内生成高质量的3D实例,比现有方法更快。生成的3D实例支持实时渲染,可方便地整合到动画和仿真管道中。
ComfyUI-3D-Pack
ComfyUI-3D-Pack为ComfyUI扩展了3D处理能力的节点套件。它集成了3DGS、NeRF等算法和InstantMesh、CRM、TripoSR等模型,实现单图到3D网格的生成、多视图重建和3D可视化。该套件还提供轨道相机姿态生成、3D渲染等工具,简化了3D资产的生成流程。
Awesome-AIGC-3D
Awesome-AIGC-3D是一个精选的AIGC 3D论文资源列表,涵盖了从物体到场景生成的多种3D生成方法。项目包括最新的扩散模型、神经辐射场等技术,并收录了相关综述文章、基准数据集和实现代码。这为3D生成领域的研究人员和开发者提供了全面的技术参考。
GeoDream
GeoDream是一种创新的3D生成方法,通过结合广义3D先验和2D扩散先验,提高了生成一致3D几何结构的能力,同时保持多样性和保真度。该方法生成的3D纹理网格具有更高一致性,可渲染1024x1024分辨率的逼真图像,并改善语义连贯性。GeoDream还首次提出Uni3D-score指标,将语义一致性评估从2D提升到3D。
Awesome-Text-to-3D
Awesome-Text-to-3D是一个汇集文本到3D和扩散到3D领域最新研究成果的开源项目。它涵盖了从零样本文本引导对象生成到高保真3D人脸生成等多个方向的前沿论文。项目定期更新,并提供教程视频和引用信息,为研究人员和开发者提供了跟踪该领域进展的综合资源。
Free3D
Free3D是牛津大学VGG实验室开发的新型计算机视觉技术,可从单一图像生成一致性的多视角合成图,无需显式3D表示。该技术采用射线条件归一化和伪3D注意力机制,在Objaverse等多个数据集上展现优异性能。Free3D为计算机视觉和图形学领域提供了新的研究方向,有望应用于3D重建、虚拟现实等多个领域。
MVDream
MVDream是一个开源的多视角扩散模型项目,用于3D内容生成。项目在GitHub上提供两个代码仓库:多视角扩散模型(https://github.com/bytedance/MVDream)和集成SDS技术的3D生成(https://github.com/bytedance/MVDream-threestudio)。由字节跳动研究团队开发,为计算机视觉和3D生成领域提供新的工具和方法。
MeshAnythingV2
MeshAnything V2是一个创新的3D网格模型生成项目,采用相邻网格分词技术,生成高质量的艺术家级模型。该项目可接受文本、图像或现有网格模型作为输入,输出最多包含1600个面的精细3D模型。项目提供命令行接口和Gradio演示界面,方便用户创建复杂3D模型。适用于需要快速生成高质量3D网格模型的场景。
SV3D Online
SV3D Online基于Stable Video 3D技术,实现单一图像到多角度视图和3D视频的转换。平台提供高质量新视角合成和3D生成功能,包括SV3D_u轨道视频生成和SV3D_p指定路径3D视频生成两种变体。网站还提供全面的学习资源和FAQ,是探索Stable Video 3D技术的综合平台。