Project Icon

PnPInversion

先进的扩散模型逆向技术,仅需3行代码即可提升图像编辑效果

PnPInversion是一种新型扩散模型逆向方法,通过在源扩散分支纠正逆向偏差,仅需3行代码即可提升图像编辑效果。该技术在保持原图内容的同时提高编辑保真度。研究还提出PIE-Bench基准测试集,包含700张多样化场景和编辑类型的图像。评估显示PnPInversion在编辑性能和推理速度上均优于现有方法。

PnPInversion

本仓库包含了ICLR2024论文"PnP Inversion: 仅需3行代码即可提升基于扩散模型的图像编辑"的实现

关键词:扩散模型、图像反演、图像编辑

Xuan Ju12, Ailing Zeng2*, Yuxuan Bian1, Shaoteng Liu1, Qiang Xu1*
1香港中文大学 2国际数字经济研究院 *通讯作者

项目主页 | Arxiv | Readpaper | 基准测试 | 代码 | 视频 |

📖 目录

🛠️ 方法概述

文本引导的扩散模型彻底改变了图像生成和编辑,提供了卓越的真实感和多样性。具体来说,在基于扩散的编辑背景下,常见做法是从源图像和目标编辑提示开始。它涉及使用扩散模型获取与源图像对应的噪声潜在向量,然后将其提供给单独的源和目标扩散分支进行编辑。这个反演过程的准确性显著影响最终的编辑结果,影响源图像的基本内容保留和根据目标提示的编辑保真度

先前的反演技术试图在源和目标扩散分支中找到统一的解决方案。然而,理论和实证分析表明,实际上,两个分支的解耦导致基本内容保留和编辑保真度责任的明确分离,从而在两个方面都取得更好的结果。在本文中,我们引入了一种名为"PnP反演"的新技术,它仅用三行代码直接纠正源扩散分支中的反演偏差,同时保持目标扩散分支不变。为了系统地评估图像编辑性能,我们提出了PIE-Bench,这是一个编辑基准,包含700张具有多样场景和编辑类型的图像,并配有多样化的注释。我们的评估指标着重于可编辑性和结构/背景保留,展示了PnP反演在八种编辑方法中相比五种反演技术的卓越编辑性能和推理速度。

概述 代码

🚀 入门指南

环境要求 🌍

这很重要!!!由于不同的模型有不同的Python环境要求(例如diffusers的版本),我们将环境列在"environment"文件夹中,详细如下:

  • p2p_requirements.txt:用于run_editing_p2p.pyrun_editing_blended_latent_diffusion.pyrun_editing_stylediffusion.pyrun_editing_edit_friendly_p2p.py中的模型
  • instructdiffusion_requirements.txt:用于run_editing_instructdiffusion.pyrun_editing_instructpix2pix.py中的模型
  • masactrl_requirements.txt:用于run_editing_masactrl.py中的模型
  • pnp_requirements.txt:用于run_editing_pnp.py中的模型
  • pix2pix_zero_requirements.txt:用于run_editing_pix2pix_zero.py中的模型
  • edict_requirements.txt:用于run_editing_edict.py中的模型

例如,如果你想使用run_editing_p2p.py中的模型,你需要按以下方式安装环境:

conda create -n p2p python=3.9 -y
conda activate p2p
conda install pytorch==1.12.1 torchvision==0.13.1 torchaudio==0.12.1 cudatoolkit=11.3 -c pytorch
pip install -r environment/p2p_requirements.txt

基准测试数据集下载 ⬇️

你可以在这里下载基准测试数据集PIE-Bench(提示驱动的图像编辑基准)。数据结构应该如下:

|-- data
    |-- annotation_images
        |-- 0_random_140
            |-- 000000000000.jpg
            |-- 000000000001.jpg
            |-- ...
        |-- 1_change_object_80
            |-- 1_artificial
                |-- 1_animal
                        |-- 111000000000.jpg
                        |-- 111000000001.jpg
                        |-- ...
                |-- 2_human
                |-- 3_indoor
                |-- 4_outdoor
            |-- 2_natural
                |-- ...
        |-- ...
    |-- mapping_file_ti2i_benchmark.json # TI2I基准测试的映射文件,包含编辑文本
    |-- mapping_file.json # PIE-Bench的映射文件,包含编辑文本、混合词和掩码注释

PIE-Bench基准测试:

包含700张图像,有10种编辑类型。"annotation images"文件夹中的文件夹名称表示编辑类型。[展开查看详情]
文件夹名称编辑类型说明
0_random_1400. 随机编辑由志愿者撰写或来自之前研究的示例的随机提示。共140张图像。
1_change_object_801. 更改对象将一个对象更改为另一个,例如将点变成猫。共80张图像。
2_add_object_802. 添加对象添加一个对象,例如添加花朵。共80张图像。
3_delete_object_803. 删除对象删除一个对象,例如删除图像中的云朵。共80张图像。
4_change_attribute_content_404. 更改某物的内容更改某物的内容,例如通过编辑面部表情将微笑的人变成生气的人。共40张图像。
5_change_attribute_pose_405. 更改某物的姿势更改某物的姿势,例如将站立的狗变成奔跑的狗。共40张图像。
6_change_attribute_color_406. 更改某物的颜色更改某物的颜色,例如将红心变成粉红心。共40张图像。
7_change_attribute_material_407. 更改某物的材质更改某物的材质,例如将木桌变成玻璃桌。共40张图像。
8_change_background_808. 更改图像背景更改图像背景,例如将白色背景变成草地。共80张图像。
9_change_style_809. 更改图像风格更改图像风格,例如将照片变成水彩画。共80张图像。

在编辑类型1-9中,我们将图像平均分配给人工图像和自然图像*(注意这两类都是真实图像,人工图像是绘画或其他人为生成的图像,自然图像是照片)*。在这两个类别中,图像又平均分配给动物、人物、室内场景和室外场景。

"mapping_file_ti2i_benchmark.json"包含PIE-Bench的编辑文本、混合词和掩码注释。[展开查看详情]

mapping_file_ti2i_benchmark.json包含一个具有以下结构的字典:

{
    "000000000000": {
        "image_path": "0_random_140/000000000000.jpg", # 图像路径
        "original_prompt": "路上倾斜的山地自行车,前面是一栋建筑", # 原始图像的提示,[]显示与editing_prompt的区别
        "editing_prompt": "路上倾斜的[生锈的]山地自行车,前面是一栋建筑", # 编辑后图像的提示,[]显示与original_prompt的区别
        "editing_instruction": "使自行车车架生锈", # 图像编辑指令
        "editing_type_id": "0", # 图像编辑类型
        "blended_word": "自行车 自行车", # 需要编辑的词
        "mask": [...] # 使用RLE编码的掩码,需要编辑的部分为1,否则为0。
        },
    ...
}

TI2I基准测试:

我们还在数据中添加了TI2I基准测试以便使用。TI2I基准测试包含55张图像,每张图像都有编辑后的图像提示。 图像位于data/annotation_images/ti2i_benchmark,映射文件位于data/mapping_file_ti2i_benchmark.json。

🏃🏼 运行脚本

推理 📜

运行基准测试

您可以通过run_editing_p2p.pyrun_editing_edit_friendly_p2p.pyrun_editing_masactrl.pyrun_editing_pnp.pyrun_editing_edict.pyrun_editing_pix2pix_zero.pyrun_editing_instructdiffusion.pyrun_editing_blended_latent_diffusion.pyrun_editing_stylediffusion.pyrun_editing_instructpix2pix.py运行整个图像编辑结果。这些Python文件包含以下模型(请展开):

run_editing_p2p.py | 反转方法 | 编辑方法 | 索引 | 说明 | :-----: | :----: | :----: | :----: | | DDIM | 提示词到提示词 | ddim+p2p | | | 空文本反转 | 提示词到提示词 | null-text-inversion+p2p | | | 负面提示词反转 | 提示词到提示词 | negative-prompt-inversion+p2p | | | 直接反转(本文方法) | 提示词到提示词 | directinversion+p2p | | | 直接反转(本文方法)(消融:使用不同的引导尺度) | 提示词到提示词(消融:使用不同的引导尺度) | directinversion+p2p_guidance_{i}_{f} | 用于消融研究。{i}表示反转引导尺度,{f}表示前向引导尺度。{i}可从[0,1,25,5,75]中选择。{f}可从[1,25,5,75]中选择。例如,directinversion+p2p_guidance_1_75表示反转时引导尺度为1.0,前向时为7.5。 | | 空文本反转 | 近端引导 | null-text-inversion+proximal-guidance | | | 负面提示词反转 | 近端引导 | negative-prompt-inversion+proximal-guidance | | | 空潜在空间反转 | 提示词到提示词 | ablation_null-latent-inversion+p2p | 用于消融研究。将空文本反转改为空潜在空间反转。 | | 空文本反转(消融:单分支) | 提示词到提示词 | ablation_null-text-inversion_single_branch+p2p | 用于消融研究。编辑空文本反转,仅在源分支交换空嵌入。 | | 直接反转(本文方法)(消融:按比例添加) | 提示词到提示词(消融:按比例添加) | ablation_directinversion_{s}+p2p | 用于消融研究。{s}表示添加的比例。{s}可从[04,08]中选择。例如,ablation_directinversion_02+p2p表示按0.2的比例添加。 | | 直接反转(本文方法)(消融:跳过步骤) | 提示词到提示词(消融:跳过步骤) | ablation_directinversion_interval_{s}+p2p | 用于消融研究。{s}表示跳过的步骤数。{s}可从[2,5,10,24,49]中选择。例如,ablation_directinversion_interval_2+p2p表示每2步跳过一次。 | | 直接反转(本文方法)(消融:为目标潜在变量添加源偏移) | 提示词到提示词(消融:为目标潜在变量添加源偏移) | ablation_directinversion_add-source+p2p | | | 直接反转(本文方法)(消融:为目标潜在变量添加目标偏移) | 提示词到提示词(消融:为目标潜在变量添加目标偏移) | ablation_directinversion_add-target+p2p | |
反转方法编辑方法索引说明
风格扩散提示词到提示词stylediffusion+p2p
反转方法编辑方法索引说明
易编辑反转提示词到提示词edit-friendly-inversion+p2p
反转方法编辑方法索引说明
DDIMMasaCtrlddim+masactrl
直接反转(本文方法)MasaCtrldirectinversion+masactrl
反转方法编辑方法索引说明
DDIM即插即用ddim+pnp
直接反转(本文方法)即插即用directinversion+pnp
反转方法编辑方法索引说明
DDIMPix2Pix-Zeroddim+pix2pix-zero
直接反转(本文方法)Pix2Pix-Zerodirectinversion+pix2pix-zero
反转方法编辑方法索引说明
EDICTedict+direct_forward
反转方法编辑方法索引说明
指令扩散instruct-diffusion
反转方法编辑方法索引说明
指令Pix2Pixinstruct-pix2pix
反转方法编辑方法索引说明
混合潜在扩散blended-latent-diffusion
例如,如果你想运行DirectInversion(本方法) + Prompt-to-Prompt,你可以在run_editing_p2p.py中找到这个方法的索引directinversion+p2p。然后,你可以通过以下命令运行编辑类型0的DirectInversion(本方法) + Prompt-to-Prompt:
python run_editing_p2p.py --output_path output --edit_category_list 0 --edit_method_list directinversion+p2p

你也可以运行多个编辑方法和多个编辑类型:

python run_editing_p2p.py --edit_category_list 0 1 2 3 4 5 6 7 8 9 --edit_method_list directinversion+p2p null-text+p2p

你还可以指定--rerun_exist_images来选择是否重新运行已存在的图像。你还可以指定--data_path和--output来设置图像路径和输出路径。

运行任意图像

你可以将自己的图像和编辑提示处理成与我们给出的基准相同的格式,以运行大量图像。你也可以编辑给定的Python文件以适用于你自己的图像。我们已经提供了run_editing_p2p.py的编辑版本run_editing_p2p_one_image.py。你可以通过以下命令运行单个图像的编辑:

python -u run_editing_p2p_one_image.py --image_path scripts/example_cake.jpg --original_prompt "一个圆形的橙色糖霜蛋糕放在木盘上" --editing_prompt "一个方形的橙色糖霜蛋糕放在木盘上" --blended_word "蛋糕 蛋糕" --output_path "directinversion+p2p.jpg" "ddim+p2p.jpg" --edit_method_list "directinversion+p2p" "ddim+p2p"

我们还提供了Jupyter notebook演示run_editing_p2p_one_image.ipynb

请注意,我们在代码中使用了默认参数。然而,这并不适用于所有图像。你可能需要根据你的输入调整它们。

评估 📐

你可以通过以下命令运行评估:

python evaluation/evaluate.py --metrics "structure_distance" "psnr_unedit_part" "lpips_unedit_part" "mse_unedit_part" "ssim_unedit_part" "clip_similarity_source_image" "clip_similarity_target_image" "clip_similarity_target_image_edit_part" --result_path evaluation_result.csv --edit_category_list 0 1 2 3 4 5 6 7 8 9 --tgt_methods 1_ddim+p2p 1_directinversion+p2p

你可以在evaluation/evaluate.py中的"all_tgt_image_folders"字典中找到tgt_methods的选项。

所有编辑结果可以在这里下载。你可以下载它们并按以下文件结构放置,以重现我们论文中的所有结果。

output
  |-- ddim+p2p
    |-- annotation_images
      |-- ...
  |-- directinversion+p2p
    |-- annotation_images
      |-- ...
...    

如果你想评估我们论文中显示的整个表格的结果,你可以运行:

python evaluation/evaluate.py --metrics "structure_distance" "psnr_unedit_part" "lpips_unedit_part" "mse_unedit_part" "ssim_unedit_part" "clip_similarity_source_image" "clip_similarity_target_image" "clip_similarity_target_image_edit_part" --result_path evaluation_result.csv --edit_category_list 0 1 2 3 4 5 6 7 8 9 --tgt_methods 1 --evaluate_whole_table

然后,表1中的所有结果将输出到evaluation_result.csv中。

🥇 定量结果

在各种编辑方法中将PnP Inversion与其他反演技术进行比较:

quantitative

更多结果可以在主论文中找到。

🌟 定性结果

将PnP Inversion融入四种基于扩散的编辑方法的性能提升: vis_1

不同反演和编辑技术的可视化结果:

vis_1

更多结果可以在主论文中找到。

🤝🏼 引用我们

@article{ju2023direct,
  title={PnP Inversion: Boosting Diffusion-based Editing with 3 Lines of Code},
  author={Ju, Xuan and Zeng, Ailing and Bian, Yuxuan and Liu, Shaoteng and Xu, Qiang},
  journal={International Conference on Learning Representations ({ICLR})},
  year={2024}
}

💖 致谢

我们的代码在prompt-to-promptStyleDiffusionMasaCtrlpix2pix-zeroPlug-and-PlayEdit Friendly DDPM Noise SpaceBlended Latent DiffusionProximal GuidanceInstructPix2Pix的基础上进行了修改,感谢所有贡献者!

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号