LLM-groundedDiffusion:增强文本到图像扩散模型的提示理解能力
LLM-groundedDiffusion (LMD) 是一个将大语言模型 (LLM) 与文本到图像扩散模型相结合的创新项目。该项目旨在通过利用 LLM 的强大语言理解能力,来增强扩散模型对复杂文本提示的理解和执行能力。
项目主要资源
- GitHub 代码仓库 - 包含完整的项目代码实现
- 项目论文 - 详细介绍了 LMD 的技术原理
- 项目主页 - 提供了项目概览和示例
- 在线演示 - 可以在线体验 LMD 的效果
- 5分钟博客介绍 - 简明扼要地解释了 LMD 的核心思想
技术特点
LLM-groundedDiffusion 的主要技术特点包括:
- 利用 LLM 解析文本提示,生成中间表示(如图像布局)
- 将 LLM 生成的中间表示输入到 Stable Diffusion 模型中
- 提出了 LMD 和 LMD+ 两种方法,后者结合了 GLIGEN 适配器
- 无需额外训练即可使用,可直接应用于现有的 SD 模型
快速上手
- 克隆代码仓库:
git clone https://github.com/TonyLianLong/LLM-groundedDiffusion.git
- 安装依赖:
pip install -r requirements.txt
- 生成图像:
python generate.py --prompt-type demo --model gpt-4 --save-suffix "gpt-4" --repeats 5 --frozen_step_ratio 0.5 --regenerate 1 --force_run_ind 0 --run-model lmd_plus --no-scale-boxes-default --template_version v0.1
性能评估
LLM-groundedDiffusion 在多个任务上显著优于基线方法:
在否定、数值、属性绑定和空间关系等任务上,LMD+ (GPT-4) 的整体性能达到了 86.3%,远超原始的 Stable Diffusion 模型 (36.8%)。
扩展应用
除了静态图像生成,LLM-groundedDiffusion 的思想也被应用到了视频生成领域。感兴趣的读者可以查看 LLM-grounded Video Diffusion Models (LVD) 项目。
总结
LLM-groundedDiffusion 展示了将大语言模型与扩散模型结合的巨大潜力。通过简单的中间表示桥接,它显著提升了文本到图像生成的质量和可控性。该项目为 AI 生成内容领域开辟了新的研究方向,值得关注和进一步探索。
如果您对 LLM-groundedDiffusion 项目有任何问题或建议,欢迎在 GitHub Issues 中提出,或直接联系项目作者 Long (Tony) Lian: longlian@berkeley.edu。