Project Icon

sd-controlnet-mlsd

结合M-LSD直线检测优化Stable Diffusion的图像生成

该项目介绍了ControlNet神经网络结构,通过加入M-LSD直线检测等条件来控制大规模扩散模型,适用于Stable Diffusion。ControlNet能够在小数据集下进行稳健学习,且可在个人设备上快速训练。项目提供了多种检查点,涵盖边缘检测、深度估计和关键点检测,丰富了大规模扩散模型的控制方式,有助于推进相关应用的发展,最佳效果在Stable Diffusion v1-5结合使用时体现。

LooseControl - 通用深度条件生成控制技术
AI绘图ControlNetGithubLooseControl图像生成开源项目深度条件控制
LooseControl是一种提升ControlNet能力的深度条件生成控制技术,实现了更通用的深度条件控制。该开源项目提供UI界面和Python API,支持基于粗略深度图的图像生成和风格保持编辑。LooseControl适用于多种场景,为计算机视觉和图像生成领域提供了新的研究方向。
control_v1p_sd15_brightness - 提供灰度图像上色及色调重调功能
AI许可证GithubHuggingfaceStable Diffusion亮度控制图像上色开源项目模型灰度图像
该模型为Stable Diffusion提供亮度控制能力,采用ControlNet技术,能够实现灰度图像的上色及已生成图像的色调重调。
controlnet-seg-room - 室内设计图像生成与自定义元素控制
AI绘图DiffusersGithubHuggingface室内设计开源项目控制网模型
controlnet-seg-room项目使用控制网络和细分图训练生成室内设计图像,用户可通过条件信息实现对房间对象的精细控制。项目结合来自BLIP和UperNet模型的元数据,以TPUv4和JAX框架优化,后转为PyTorch以配合Diffusers库,支持图像转换和修复,便于定制设计风格与房型,支持创意设计实现。
distill-sd - 更小更快速的Stable Diffusion模型,依靠知识蒸馏实现高质量图像生成
GithubStable Diffusion开源项目模型压缩神经网络训练细节预训练检查点
基于知识蒸馏技术开发的小型高速Stable Diffusion模型。这些模型保留了完整版本的图像质量,同时大幅减小了体积和提升了速度。文档详细介绍了数据下载脚本、U-net训练方法和模型参数设置,还支持LoRA训练及从检查点恢复。提供清晰的使用指南和预训练模型,适配快速高效图像生成需求。
MultiDiffusion - 基于预训练模型的多功能可控的图像生成框架
GithubMultiDiffusion可控生成图像生成开源项目扩散模型文本到图像
MultiDiffusion 是一个统一框架,通过预训练的文字转图像扩散模型,实现多功能且可控的图像生成,无需进一步训练或微调。该框架支持用户使用各种控制信号,如纵横比和空间引导信号,生成高质量、多样化的图像。MultiDiffusion 优化了多重扩散生成过程,使用一组共享参数或约束,支持局部和全局编辑,适用于如烟雾、火焰和雪等半透明效果。
stable-diffusion-2-depth - 基于深度感知的Stable Diffusion AI图像生成模型
GithubHuggingfaceStable Diffusion人工智能图像生成开源项目机器学习模型深度学习
stable-diffusion-2-depth是基于Stable Diffusion 2的深度感知AI图像生成模型。它在原有基础上增加了处理MiDaS深度预测的输入通道,实现了额外的条件控制。该模型能够根据文本提示生成和修改高分辨率图像,主要应用于AI安全部署研究、模型局限性探索和艺术创作等领域。作为开源项目,stable-diffusion-2-depth为AI图像生成技术的进步提供了新的可能性。
ControlNeXt - 高效可控生成框架 实现图像视频多样化控制
ControlNeXtGithub人工智能可控生成图像生成开源项目视频生成
ControlNeXt是一个创新的可控生成框架,支持图像和视频的多样化控制。该项目大幅减少可训练参数,提高收敛速度和效率。基于Stable Diffusion等先进模型,ControlNeXt实现了包括人体姿态控制在内的多种生成任务。此外,它还可与LoRA等技术结合,提供更灵活、稳定的生成体验。
DiffusionFromScratch - 实践教程:从零构建和训练稳定扩散模型
GithubStable DiffusionUNet图像生成开源项目教程机器学习
DiffusionFromScratch是一个开源项目,提供精简代码库用于重建稳定扩散模型。项目特点包括单Python脚本实现、支持MNIST和CelebA数据集训练,以及提供多个Colab笔记本。这些笔记本涵盖模型架构探索、UNet模型构建和基于文本生成MNIST图像等内容。项目还展示了演示输出和音乐视频生成示例,为学习稳定扩散模型提供了实用资源。
stable-diffusion-v1-5 - 文本到图像生成的多平台兼容潜在扩散模型
AI绘图GithubHuggingfaceStable Diffusion开源项目文本到图像模型生成对抗网络生成艺术
Stable Diffusion v1-5 是一个使用潜在扩散技术的文本到图像生成模型,可生成高逼真度的图像。该模型经过多次优化与微调,兼容Diffusers库及多种用户界面,强调安全性并配备NSFW检查器,适用于研究、艺术创作及设计领域。此模型针对不同GPU环境设计,具有高效的生成性能。
stable-diffusion-colab - Stable Diffusion Hyper-SDXL模型在Colab上的简易部署与使用
AI绘图ColabGithubStable Diffusion开源项目文本生成图像深度学习
该项目为Stable Diffusion Hyper-SDXL模型提供了Colab部署方案。用户可通过简单的文本提示生成高分辨率创意图像,如火星上骑马的宇航员或埃菲尔铁塔前用餐的皮卡丘。项目采用先进的潜在扩散模型技术,并集成了LCM-LoRA加速模块,有效提升了图像生成效率。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号