Project Icon

control_v11e_sd15_ip2p

更好地控制扩散模型的图像处理能力

本项目利用ControlNet v1.1提供了一种神经网络结构,能够通过附加条件控制预训练的大型扩散模型,与Stable Diffusion兼容。其支持指令化像素到像素的控制,通过边缘图、分割图和关键点等条件输入丰富图像生成方式。即便在小规模数据集下,ControlNet也能在个人设备上快速训练,相关源码及文档可在HuggingFace平台获取,适用于多种图像生成任务,提升图像处理灵活性。

stable-diffusion-2-1-base - 基于稳定扩散技术的高质量文本到图像生成模型
GithubHuggingfaceStable Diffusion人工智能绘图开源项目文本生成图像模型深度学习计算机视觉
stable-diffusion-2-1-base是Stability AI开发的文本到图像生成模型,基于潜在扩散技术。该模型在大规模图像数据集上训练,可根据文本提示生成512x512分辨率的高质量图像。相比之前版本,2.1版本在图像质量和文本理解能力上有所提升。模型适用于艺术创作、设计辅助等场景,可通过Hugging Face Diffusers库轻松使用。
IP-Adapter-Instruct - 多任务图像生成的突破性技术
GithubIP Adapter Instruct图像生成多任务学习开源项目扩散模型条件控制
IP-Adapter-Instruct是一种先进的图像生成技术,融合了自然图像条件和指令提示。这个模型能够高效处理多种任务,包括风格迁移和对象提取,同时保持高质量输出。它克服了传统文本提示在描述图像风格和细节方面的局限性,提供了更精确的图像生成控制。IP-Adapter-Instruct在实际应用中表现出色,为扩散模型的发展提供了新的可能性。
Paint-by-Example - 通过扩散模型进行示范导向的图像编辑
GithubHuggingfacePaint by Example图像编辑开源项目扩散模型自监督训练
该项目通过自监督训练,重新组合源图像及示范图像,避免了直接复制粘贴带来的伪影。采用任意形状掩码和无分类器指导,提升编辑过程的可控性,并通过一次性前向扩散模型实现高保真图像编辑。项目展示了对自然图像的高效可控编辑效果,提供了预训练模型、测试基准和量化结果,适用于图像编辑和生成的研究与应用。
HCP-Diffusion - Stable Diffusion模型训练与优化工具集
DreamArtist++GithubHCP-DiffusionLoRAStable Diffusion开源项目文本到图像生成
HCP-Diffusion是基于Diffusers库开发的Stable Diffusion模型工具集。它整合了多种文本到图像生成的训练方法,包括Prompt-tuning和Textual Inversion等。该工具集引入了DreamArtist++技术,支持一次性文本到图像生成。HCP-Diffusion提供层级LoRA、模型集成和自定义优化器等功能,为AI研究和开发提供全面的模型训练与推理支持。
tame-the-authenticity-machine-v10-sdxl - 稳定扩散XL模型实现逼真图像生成
GithubHuggingfacediffusersstable-diffusiontext-to-image图像生成开源项目模型真实感
该项目利用zyxt99565的模型,通过diffusers库进行文本到图像的转换,支持多标签如stable-diffusion-xl和photorealistic,专注于生成高质量逼真图像。
stable-diffusion-pytorch - Stable Diffusion PyTorch实现,支持自定义参数
该项目提供简洁且易于修改的Stable Diffusion PyTorch实现,支持文本生成图像与图像生成图像的操作,允许自定义生成参数、调整指导规模和选择生成步数等多种功能。依赖PyTorch、Numpy和Pillow等库,适合需要高度控制与灵活性的深度学习项目。通过Colab可以快速开始使用,并且借鉴了多个知名开源库,是学习和实践的理想资源。
AI Drawing Generator - AI在线工具将简单涂鸦转换为精细图像
AI工具AI绘图ControlNetStable Diffusion图像生成条件控制
该在线AI图像生成工具采用ControlNet技术,能将简单涂鸦转换为精细图像。支持边缘图、分割图和关键点等多种输入条件。用户只需上传涂鸦并添加描述,即可生成高质量图像。工具主要用于教育和创意领域,有效帮助用户将创意概念可视化。
automatic - 稳定扩散和其他基于扩散的生成图像模型的高级实现
GithubSD.NextStable Diffusion多平台开源项目扩展功能模型支持
该项目提供了多种后端和用户界面、高级扩展功能,支持多种扩散模型并具有跨平台兼容性。包括文本、图像和视频处理的内置控制,优化处理性能,支持最新的torch技术。具有企业级日志记录和现代化UI,兼容Windows、Linux、MacOS等系统,支持nVidia、AMD和IntelArc等硬件平台。自动更新与依赖管理功能简化了安装和更新过程,确保在多种使用场景下性能最佳。
StreamMultiDiffusion - 基于区域语义控制的实时交互式图像生成
GithubStable Diffusion 3StreamMultiDiffusion实时生成开源项目文本到图像语义控制
StreamMultiDiffusion 提供基于区域语义控制的实时交互式图像生成。该项目支持细粒度区域控制、分离提示和实时图像修复,能够显著降低生成延迟,适用于大尺寸图像的高效创作及全景生成等应用。
cond-image-leakage - 改进图像到视频扩散模型中的条件图像依赖问题
DynamiCrafterGithubVideoCrafter图像到视频生成开源项目扩散模型条件图像泄漏
该研究揭示并解决了图像到视频扩散模型中的条件图像依赖问题。研究团队提出了适用于DynamiCrafter、SVD和VideoCrafter1等多种模型的即插即用推理和训练策略。这些策略减轻了模型对条件图像的过度依赖,增强了生成视频的动态效果。项目开源的代码、模型和演示为图像到视频生成研究提供了重要参考。
项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

稿定AI

稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号