#潜在空间
CV-VAE - 兼容预训练模型的视频生成技术
CV-VAE视频生成潜在空间兼容性VAEGithub开源项目
CV-VAE是一种视频变分自编码器,专为潜在生成视频模型设计。它与预训练图像和视频模型(如SD 2.1和SVD)兼容,用于视频重建和生成。项目提供代码实现和预训练模型权重,支持视频重建和文本到视频转换。CV-VAE为视频生成技术研究提供了新的工具和方向。
SD-Latent-Interposer - 实现Stable Diffusion模型间潜空间互操作的神经网络
SD-Latent-InterposerStable DiffusionComfyUI潜在空间神经网络Github开源项目
SD-Latent-Interposer是一个实现Stable Diffusion模型间潜空间互操作的神经网络。它支持SDXL、SDv1.5、SD3、Flux.1和Stable Cascade等版本之间的直接潜空间转换,无需通过VAE解码和重新编码。这种方法提高了不同SD模型版本间的兼容性,为潜空间操作提供了更高效、灵活的解决方案。
sd-webui-llul - Stable Diffusion WebUI局部放大插件提升AI绘画细节
LLuL潜在空间局部放大Stable Diffusion图像生成Github开源项目
LLuL是Stable Diffusion WebUI的扩展插件,实现潜在空间中的图像局部放大。它提供简单的界面,让创作者能选择特定区域进行高质量放大,同时保持整体构图。插件支持权重调节和蒙版功能,增强了AI绘画的细节控制和画质表现。通过LLuL,AI生成图像的局部细节得到提升,整体画面质量显著改善。
taesd - 轻量级自动编码器:高速解码Stable Diffusion潜在空间
TAESDStable DiffusionAI绘图自动编码器潜在空间Github开源项目
TAESD是一款小巧的自动编码器,采用与Stable Diffusion VAE相同的潜在API。它能高效地将Stable Diffusion潜在空间解码为全尺寸图像。TAESD兼容SD1/2、SDXL、SD3和FLUX.1等多种模型,已整合到主流AI绘画工具中。该工具适用于实时预览图像生成过程和替代官方VAE的场景。尽管在细节还原方面稍有欠缺,TAESD通过轻微的质量损失换取了显著的速度和便利性提升。
Smooth-Diffusion - 提升扩散模型潜在空间平滑性的新方法
Smooth Diffusion扩散模型图像生成潜在空间CVPR 2024Github开源项目
Smooth Diffusion是一种创新的扩散模型技术,通过优化潜在空间的平滑性来提升模型性能。这种方法在图像插值、反演和编辑任务中展现出显著优势,实现了更连续的过渡效果、更低的反演误差,以及更好的未修改内容保留。通过在训练过程中引入变化约束,Smooth Diffusion为扩散模型研究开辟了新方向。
StableCascade - 基于高压缩潜在空间的快速文本到图像生成模型
Stable CascadeAI绘图图像生成潜在空间高效模型Github开源项目
Stable Cascade是一种新型文本到图像生成模型,采用高度压缩的潜在空间技术。它由三个阶段组成,可将1024x1024图像压缩至24x24尺寸,同时保持清晰重建效果。与Stable Diffusion相比,该模型实现了更快的推理速度和更低的训练成本。Stable Cascade在提示对齐和图像质量方面表现优异,并支持微调、ControlNet和LoRA等多种扩展功能,适用于对效率要求较高的应用场景。
LFM - 潜空间流匹配实现高效图像生成
Flow Matching潜在空间图像生成PyTorch生成模型Github开源项目
LFM项目创新性地将流匹配应用于预训练自编码器的潜空间,显著提升高分辨率图像生成的效率。这种方法不仅在计算资源有限的情况下保持了图像质量,还首次将条件生成任务融入流匹配框架。经过广泛测试,LFM在多个数据集上均取得了优异的定量和定性结果。
sd-x2-latent-upscaler - Stable Diffusion专用潜在空间图像放大器
模型图像上采样Stable Diffusion人工智能模型训练Github潜在空间Huggingface开源项目
sd-x2-latent-upscaler是为Stable Diffusion设计的潜在空间图像放大模型,能在GPU上对生成的潜在图像进行2倍放大。它实现了快速的文本到高分辨率图像生成流程,与所有Stable Diffusion检查点兼容。该模型由Katherine Crowson和Stability AI合作开发,在LAION-2B数据集的高分辨率子集上训练,为图像生成研究和创作提供了有力工具。
相关文章