#稳定扩散
DPM-Solver: 快速高效的扩散概率模型采样方法
riffusion-app-hobby
Riffusion是一款基于稳定扩散技术的实时音乐生成应用程序,支持Next.js、React、Typescript、three.js、Tailwind和Vercel技术栈。用户可通过安装Node v18或更高版本运行开发服务器,并在本地浏览器中查看应用。项目需要配置推理服务器来快速生成模型输出,适用于大GPU用户。请在二次开发时引用相关工作。
dalle-flow
DALL·E Flow是基于文本的人机交互式创意生成工作流,通过DALL·E-Mega、GLID-3 XL和Stable Diffusion生成图像候选,并以CLIP-as-service进行排序优化。此流程不仅提升了图像质量,同时采用SwinIR技术提高至1024x1024高分辨率,让用户在创作中享受自由与多样性。
Dreambooth-Stable-Diffusion
Dreambooth-Stable-Diffusion项目是一个平台,支持用户在多种环境如Vast.ai、Google Colab以及本地计算机上训练AI模型。该工具适用于电影制作人、概念艺术家和设计师,用于创建和训练个性化角色和风格。项目同时提供详尽的设置指南和教程,支持多种操作环境,旨在提高工作效率和用户体验。
MIGC
MIGC项目的多实例生成控制器提升了文本生成图像的多样性和质量,包含COCO-MIG基准测试、在线Colab演示等资源。MIGC提升了属性控制,通过更换不同生成器权重,实现高质量和多样化图像生成。最新Consistent-MIG算法优化迭代编辑功能,保持未修改区域一致性并增强修改实例的一致性。此项目由浙江大学的ReLER实验室和华为监督。
dpm-solver
DPM-Solver及其改进版DPM-Solver++是高阶解算器,专为扩散ODE设计,无需额外训练,适用于离散和连续时间的扩散模型。实验表明,DPM-Solver在10到20次函数评估内生成高质量样本。该项目已广泛应用于Stable-Diffusion、DeepFloyd-IF等知名项目,支持多种采样与扩散模型,并集成于Diffusers等流行库。
zero123
探索一种创新技术,通过一张图像实现高精度的3D对象重建。研究介绍了如何使用Zero123进行新视角合成和3D重建,解决了文字转图像模型中的视角歧义问题,并展示了其在多种应用中的卓越性能。项目还包括Zero123-XL和Objaverse-XL的最新权重发布,以及详细的使用和训练指南,支持研究者和开发者在现有硬件上进行开发和测试。
WarpFusion
WarpFusion项目提供详细的安装和使用指南,帮助用户将视频转换为动画。内容包括Windows和Linux系统的本地安装指南、Docker安装步骤和多种教程视频,适合从初学者到高级用户。项目引用Stable Diffusion、ControlNet等多种模型,实现高质量的视频动画转换。
AnimateDiff
AnimateDiff是一个即插即用模块,可将文本到图像模型转变为动画生成器,无需额外训练。通过学习可迁移的运动先验,它适用于Stable Diffusion系列的多种变体。该项目支持使用社区模型生成动画、MotionLoRA控制以及SparseCtrl RGB和草图控制等功能。AnimateDiff增强了文本到视频模型的控制能力,能生成高质量动画。
riffusion-hobby
Riffusion是一个开源库,利用稳定扩散技术实现实时音乐和音频生成,并在图像和音频之间进行转换。该库提供扩散管道、命令行工具和互动应用,支持通过Flask服务器进行模型推理。支持CPU、CUDA和MPS后端,推荐使用CUDA支持的GPU以获得最佳性能。虽然项目已停止维护,但用户仍可参考相关资源和指南进行安装和使用。