#文本引导
threefiner
Threefiner是一个开源的3D模型优化工具,通过文本指令来引导模型细化过程。它支持多种常见3D文件格式,提供命令行和图形界面,可使用Deepfloyd-IF-II在短时间内完成纹理优化。该工具集成了Stable Diffusion和IF等AI模型,能够进行几何结构固定和纹理改进,并支持方向性文本提示。Threefinder为3D创作者提供了一个高效的模型优化解决方案。
DressCode
DressCode是一个创新的文本驱动3D服装生成框架。该系统结合GPT架构和稳定扩散模型,能够根据自然语言描述自动生成服装缝纫图案和物理渲染纹理。DressCode不仅简化了服装设计流程,还为数字人物创作和虚拟试衣等应用开辟了新的可能性。与现有方法相比,DressCode在生成质量和输入提示一致性方面表现突出,为服装设计和数字内容创作领域提供了新的解决方案。
LivePhoto
LivePhoto是一项由香港大学、阿里巴巴集团和蚂蚁集团研究人员开发的图像动画化技术。该技术通过文本引导实现对真实图像的动作控制,能将静态图像转化为动画,同时保持图像的真实感和细节。LivePhoto的核心特点是允许通过文字描述来精确控制图像中的动作,为视觉内容创作提供新的可能性。
SVGDreamer
SVGDreamer是一款基于扩散模型的矢量图形生成工具。它能根据文本描述生成高质量、可编辑的SVG图像。该工具支持多种风格,如图标、油画、像素艺术、低多边形和素描等。SVGDreamer在保证图像质量的同时,也注重矢量图形的可编辑性,为图形设计和创作提供了新的可能性。
DiffSketcher
DiffSketcher是一个基于潜在扩散模型的文本引导矢量草图合成项目。它可以根据文本描述生成高质量的矢量草图,支持素描、油画和彩色图像等多种风格。该项目提供灵活的参数配置,如调整笔画数量和迭代次数,并支持与风格迁移技术结合。DiffSketcher为艺术创作和图像生成领域提供了新的可能性。
Diffree
Diffree是一个基于扩散模型的文本引导对象添加系统。该项目通过OABench数据集训练,能够仅依靠文本指令准确预测新对象位置并添加到图像中,同时保持背景一致性。Diffree在对象添加成功率、背景协调性和空间布局方面表现优异,为图像编辑和内容创作提供了新的可能。
Forgedit
Forgedit是一种新型文本引导图像编辑方法,采用视觉-语言联合优化框架,能在30秒内重建原始图像。该方法在扩散模型的文本嵌入空间中引入向量投影机制,实现身份相似度和编辑强度的独立控制。Forgedit还提出了新的遗忘机制,解决了在单图像上微调扩散模型时的过拟合问题。基于Stable Diffusion构建的Forgedit在TEdBench基准测试中表现优异,CLIP评分和LPIPS评分均超过了之前的最佳方法。