Logo

Instruction-tuned Stable Diffusion: 通过InstructPix2Pix实现更精准的图像处理

instruction-tuned-sd

Instruction-tuned Stable Diffusion:通过InstructPix2Pix实现更精准的图像处理

近年来,大型语言模型(LLM)在遵循指令完成任务方面取得了令人瞩目的进展。受此启发,研究人员开始探索如何将这种指令跟随能力应用到图像生成和编辑领域。Hugging Face团队基于FLAN和InstructPix2Pix的思路,提出了一种新的方法来对Stable Diffusion进行指令微调,使其能够更好地理解和执行特定的图像处理指令。

项目背景与动机

指令微调是一种有监督的方法,旨在教会语言模型遵循指令来解决任务。这一概念最初由Google在FLAN(Fine-tuned Language Models Are Zero-Shot Learners)论文中提出。近期的Alpaca和FLAN V2等工作进一步展示了指令微调对各种任务的巨大效益。

另一方面,InstructPix2Pix引入了让Stable Diffusion遵循用户指令对输入图像进行编辑的想法。Hugging Face团队的这项工作部分受到FLAN系列工作的启发,部分受到InstructPix2Pix的影响。他们希望探索是否可以用特定指令和输入图像来提示Stable Diffusion,使其按需要处理图像。

指令微调Stable Diffusion示意图

他们的主要思路是首先创建一个指令提示数据集,然后进行InstructPix2Pix风格的训练。最终目标是让Stable Diffusion更好地遵循涉及图像转换相关操作的特定指令。

数据准备

数据准备过程受到FLAN的启发。团队针对卡通化和低级图像处理两个任务准备了数据集。

卡通化数据集

卡通化数据集的创建流程如下:

  1. 使用ChatGPT生成50个同义句来表达"将图像卡通化"这一指令。

  2. 从Imagenette数据集中随机选取5000个样本,使用预训练的Whitebox CartoonGAN模型生成这些图像的卡通版本作为标签。

  3. 将原始图像、指令和卡通化后的图像组合成训练样本。

最终的卡通化数据集可在Hugging Face数据集库中找到。

低级图像处理数据集

低级图像处理数据集涵盖了去雨、去噪、低光照增强和去模糊四个常见任务。团队从多个公开数据集中采样,并为每个任务添加了相应的指令提示。最终数据集可在这里获取。

这种混合多任务的设置与FLAN的思路相似,有助于训练出一个能够同时处理多种低级图像处理任务的单一模型。这与传统的低级图像处理方法有所不同,后者通常需要为每个任务单独训练模型。

训练实验与结果

团队基于InstructPix2Pix训练脚本进行了实验。他们探索了两种训练策略:

  1. 从现有的InstructPix2Pix检查点微调
  2. 使用InstructPix2Pix训练方法从Stable Diffusion检查点开始训练

实验发现,第一种策略能够更快地适应新数据集。

卡通化结果

团队将指令微调后的卡通化模型与预训练的InstructPix2Pix模型和CartoonGAN模型进行了比较。结果显示,指令微调模型能够更忠实地匹配CartoonGAN的输出效果。

卡通化结果比较

低级图像处理结果

在去雨任务上,指令微调模型相比预训练的InstructPix2Pix模型展现出了更令人信服的结果:

去雨结果比较

然而,在低光照增强和去模糊等任务上,模型的表现仍有待改进。这可能是由于这些任务的训练样本不足所致。

潜在应用与局限性

在图像编辑领域,专业人士的意图(要执行的任务)与编辑工具中需要执行的具体操作之间存在脱节。能够将自然语言目标轻松转化为低级图像编辑操作将带来无缝的用户体验。InstructPix2Pix等机制的引入,让我们离这一理想更近了一步。

然而,仍然存在一些挑战:

  1. 这些系统需要能处理大尺寸、高分辨率的原始图像。
  2. 扩散模型往往会在图像空间中发明或重新解释指令来执行修改。对于现实的图像编辑应用来说,这是不可接受的。

开放问题

  1. 扩大数据集规模会如何影响生成样本的质量?

  2. 对于更广泛的任务混合,增加训练时间会产生什么影响?

  3. 这种方法如何推广到更广泛的常见"指令微调"任务?

  4. 在训练过程中动态使用同一指令的不同变体是否有助于提高性能?

  5. 使用ControlNet训练设置会带来什么结果?

结论

本文介绍了Hugging Face团队在Stable Diffusion指令微调方面的探索。虽然预训练的InstructPix2Pix模型擅长遵循一般的图像编辑指令,但在面对更具体的指令时可能会失效。为了缓解这一问题,团队讨论了如何准备数据集以进一步微调InstructPix2Pix,并展示了初步结果。

尽管结果仍有提升空间,但这项工作为研究人员提供了一个基础,希望能激励他们进一步探索上述开放问题。通过不断改进,我们有望实现更智能、更精准的AI辅助图像处理系统,为创作者和设计师提供更强大的工具。

相关项目

Project Cover
dream-textures
Dream Textures是一款Blender插件,通过文本提示生成纹理、概念艺术和背景资产。支持无缝拼接、场景投影和动画再设计等功能,用户可本地运行模型,避免在线服务延迟。兼容CUDA和Apple Silicon GPU,适用于4GB以上显存设备。若硬件不支持,可使用DreamStudio进行云端处理。插件提供详细的安装指南和使用教程,并有活跃的社区支持,适合高效生成和处理图像资源的创意工作者。
Project Cover
photoshot
Photoshot是一款开源AI头像生成应用,利用Stable Diffusion模型生成独特虚拟形象。应用由Next.js、Chakra UI、Prisma和Replicate等技术构建,支持AWS S3图片存储和Stripe支付。用户通过简单安装和配置环境变量快速启动,并使用Docker管理本地数据库和邮件服务器,轻松运行开发服务器生成和定制头像。
Project Cover
StabilityMatrix
Stability Matrix提供一键安装和更新Stable Diffusion Web UI包,支持多种包和扩展插件管理。内置推理界面具有自动完成功能和语法高亮,多标签工作区支持项目文件的保存和加载。跨平台支持Windows、Linux和macOS,便于管理Python依赖,导入本地或在线模型,并提供便携使用体验。
Project Cover
cloudflare-ai-web
Cloudflare Workers AI支持快速搭建轻量化多模态AI平台,提供Serverless部署,无需服务器。支持ChatGPT、Gemini Pro、Stable Diffusion、llama-3和通义千问等模型,具备访问密码和本地存储聊天记录功能。详细的部署说明和环境变量设置指南,支持Docker、Deno Deploy和Vercel等多种部署方式。
Project Cover
opendream
Opendream 是一个简化 Stable Diffusion 工作流的 Web 界面,支持分层操作和非破坏性编辑,帮助用户在保留原始图像数据的同时进行灵活调整。扩展功能使得用户可以轻松编写和安装扩展,集成 ControlNet 等新功能,提升创意探索的可能性。通过保存和分享工作流,用户可以轻松协作,保持创作的连续性。Opendream 为图像生成和编辑带来了更多便捷和控制力。
Project Cover
easydiffusion
Easy Diffusion 3.0提供一键安装,无需技术知识和预装软件,快速入门AI图像创作。全面支持Stable Diffusion模型,新增多种功能如ControlNet、多LoRA文件支持、嵌入式等,适用于Windows、Linux和Mac系统。适合新手和需求高级功能的用户,配备强大的社区支援。
Project Cover
krita-ai-diffusion
krita-ai-diffusion是一款集成于Krita中的AI生成插件,专为图像编辑和绘画工作流程设计。它支持精准控制生成内容,如通过选择区域、使用参考图像和素描来引导图像生成。此插件与Krita的编辑工作流程完美整合,支持本地运行和开放源代码,无需依赖高性能云服务。特性包括实时绘画、图像放大、稳定扩散技术、区域文本描述、以及强大的默认及自定义预设。
Project Cover
StableSwarmUI
StableSwarmUI是一个高性能模块化的网页用户界面,专注于易用性、扩展性以及工具的强大功能性。适合初学者和专业用户,支持图像生成和复杂工作流管理。随着项目独立发展,用户可通过新的仓库获取更新。加入官方Discord或参与GitHub讨论,了解功能更新和详细的迁移指南。
Project Cover
PaddleHub
PaddleHub提供超过400种高质量AI模型,覆盖计算机视觉、自然语言处理和语音识别等领域。用户仅需3行代码即可进行模型预测,同时支持模型即服务,通过简单命令即可部署。最新版本v2.3.0引入了ERNIE-ViLG、Disco Diffusion和Stable Diffusion等模型,并支持在HuggingFace平台上发布。PaddleHub兼容Linux、Windows和MacOS,适合多平台开发。

最新项目

Project Cover
豆包MarsCode
豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。
Project Cover
AI写歌
Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。
Project Cover
商汤小浣熊
小浣熊家族Raccoon,您的AI智能助手,致力于通过先进的人工智能技术,为用户提供高效、便捷的智能服务。无论是日常咨询还是专业问题解答,小浣熊都能以快速、准确的响应满足您的需求,让您的生活更加智能便捷。
Project Cover
有言AI
有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。
Project Cover
Kimi
Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。
Project Cover
吐司
探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。
Project Cover
SubCat字幕猫
SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。
Project Cover
AIWritePaper论文写作
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。
Project Cover
稿定AI
稿定设计 是一个多功能的在线设计和创意平台,提供广泛的设计工具和资源,以满足不同用户的需求。从专业的图形设计师到普通用户,无论是进行图片处理、智能抠图、H5页面制作还是视频剪辑,稿定设计都能提供简单、高效的解决方案。该平台以其用户友好的界面和强大的功能集合,帮助用户轻松实现创意设计。
投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号