Project Icon

Paints-UNDO

AI模型模拟数字绘画创作过程

Paints-UNDO是一个模拟人类绘画行为的AI模型项目。它可以从完成的数字绘画作品逐步还原创作过程,展示草图、线稿、上色和阴影等绘画技巧。该模型不仅可用于分析绘画行为,还能与其他AI工具结合使用。Paints-UNDO为艺术创作和AI辅助绘画领域提供了新的研究方向,有助于开发更符合艺术家需求的AI系统。

Paints-Undo

Paints-Undo:数字绘画行为的基础模型

Paints-Undo 是一个旨在提供人类绘画行为基础模型的项目,希望未来的 AI 模型能更好地满足人类艺术家的实际需求。

"Paints-Undo"这个名字的灵感来源于,模型的输出效果类似于在数字绘画软件中多次按下"撤销"按钮(通常是 Ctrl+Z)。

Paints-Undo 提供了一系列模型,这些模型以图像为输入,然后输出该图像的绘制序列。模型展示了各种人类行为,包括但不限于素描、勾线、上色、阴影、变形、左右翻转、颜色曲线调整、改变图层可见性,甚至在绘画过程中改变整体创意。

本页面不包含任何示例。所有示例都在以下 Git 页面中:

>>> 点击此处查看示例页面 <<<

本 GitHub 仓库是 PaintsUndo 唯一的官方页面。我们没有其他任何网站。

请注意,最近在 Google 和社交媒体上出现了许多 PaintsUndo 的假网站。

开始使用

你可以通过以下方式在本地部署 PaintsUndo:

git clone https://github.com/lllyasviel/Paints-UNDO.git
cd Paints-UNDO
conda create -n paints_undo python=3.10
conda activate paints_undo
pip install xformers
pip install -r requirements.txt
python gradio_app.py

(如果你不知道如何使用这些命令,可以将它们粘贴到 ChatGPT 并要求 ChatGPT 解释并给出更详细的说明。)

推理已在 Nvidia 4090 和 3090TI 的 24GB VRAM 上测试通过。它可能也可以在 16GB VRAM 上运行,但无法在 8GB 上运行。我的估计是,在极端优化的情况下(包括权重卸载和分片注意力),理论最低 VRAM 要求约为 10~12.5 GB。

根据你的设置,处理一张图像大约需要 5 到 10 分钟。通常情况下,你会得到一个 25 秒长、4 帧每秒的视频,分辨率为 320x512、512x320、384x448 或 448x384。

由于处理时间在大多数情况下明显长于 HuggingFace Space 中的大多数任务/配额,我个人不太建议将其部署到 HuggingFace Space,以避免给 HF 服务器带来不必要的负担。

如果你没有所需的计算设备但仍想要在线解决方案,一个选择是等待我们发布 Colab 笔记本(但我不确定 Colab 免费版是否可行)。

模型说明

我们目前发布了两个模型:paints_undo_single_framepaints_undo_multi_frame。让我们称它们为单帧模型和多帧模型。

单帧模型以一张图像和一个"操作步骤"作为输入,输出一张单一图像。假设一件艺术品总是可以通过 1000 次人工操作创建(例如,一笔是一次操作),"操作步骤"是一个从 0 到 999 的整数。数字 0 表示完成的最终作品,数字 999 表示在纯白画布上绘制的第一笔。你可以将这个模型理解为一个"撤销"(或称 Ctrl+Z)模型。你输入最终图像,并指示你想"Ctrl+Z"多少次,模型就会给你一个在按下这些"Ctrl+Z"后的"模拟"截图。如果你的"操作步骤"是 100,那么意味着你想在这张图像上模拟按 100 次"Ctrl+Z",以获得第 100 次"Ctrl+Z"后的外观。

多帧模型接受两张图像作为输入,并输出这两张输入图像之间的 16 个中间帧。结果比单帧模型更加一致,但也更慢、"创意"更少,且限制在 16 帧内。

在这个仓库中,默认方法是将它们一起使用。我们首先会推理单帧模型大约 5-7 次以获得 5-7 个"关键帧",然后我们使用多帧模型来"插值"这些关键帧,实际生成一个相对较长的视频。

理论上,这个系统可以以多种方式使用,甚至可以生成无限长的视频,但实际上,当最终帧数在 100-500 之间时,效果最好。

模型架构(paints_undo_single_frame)

该模型是 SD1.5 的修改架构,在不同的 betas 调度器、clip skip 和上述"操作步骤"条件下训练。具体来说,该模型使用以下 betas 训练:

betas = torch.linspace(0.00085, 0.020, 1000, dtype=torch.float64)

相比之下,原始 SD1.5 使用以下 betas 训练:

betas = torch.linspace(0.00085 ** 0.5, 0.012 ** 0.5, 1000, dtype=torch.float64) ** 2

你可以注意到结束 betas 的差异以及移除的平方。这个调度器的选择基于我们内部的用户研究。

文本编码器 CLIP ViT-L/14 的最后一层被永久移除。现在在数学上始终将 CLIP Skip 设置为 2 是一致的(如果你使用 diffusers)。

"操作步骤"条件以类似于 SDXL 额外嵌入的方式添加到层嵌入中。

此外,由于该模型的唯一目的是处理现有图像,该模型严格与 WD14 标签器对齐,没有任何其他增强。你应该始终使用 WD14 标签器(本仓库中的那个)来处理输入图像以获取提示。否则,结果可能会有缺陷。人工编写的提示未经测试。

模型架构(paints_undo_multi_frame)

该模型通过从VideoCrafter系列恢复训练而成,但原始Crafter的"lvdm"未被使用,所有训练/推理代码均从头重新实现。(顺便说一下,现在的代码基于现代的Diffusers。)尽管初始权重是从VideoCrafter恢复的,但神经网络的拓扑结构经过了大量修改,经过广泛训练后,网络行为现在与原始Crafter有很大不同。

整体架构类似Crafter,包含5个组件:3D-UNet、VAE、CLIP、CLIP-Vision和图像投影。

VAE:VAE与从ToonCrafter提取的动漫VAE完全相同。非常感谢ToonCrafter为Crafters提供了出色的动漫时间VAE。

3D-UNet:3D-UNet是在Crafters的"lvdm"基础上修改而来,对注意力模块进行了修订。除了代码中的一些小改动外,主要变化是现在UNet在训练时支持空间自注意力层的时间窗口。您可以在"diffusers_vdm.attention.CrossAttention.temporal_window_for_spatial_self_attention"和"temporal_window_type"中更改代码以激活三种类型的注意力窗口:

  1. "prv"模式:每一帧的空间自注意力也会关注其前一帧的完整空间上下文。第一帧仅关注自身。
  2. "first"模式:每一帧的空间自注意力也会关注整个序列第一帧的完整空间上下文。第一帧仅关注自身。
  3. "roll"模式:每一帧的空间自注意力还会关注其前一帧和后一帧的完整空间上下文,基于"torch.roll"的排序。

请注意,为了节省GPU内存,默认情况下在推理时禁用此功能。

CLIP:SD2.1的CLIP。

CLIP-Vision:我们实现的Clip Vision(ViT/H)支持任意纵横比,通过插值位置嵌入。在尝试了线性插值、最近邻和旋转位置编码(RoPE)后,我们最终选择了最近邻。请注意,这与Crafter将图像调整大小或中心裁剪为224x224的方法不同。

图像投影:我们实现的一个小型transformer,它接受两帧作为输入,并为每帧输出16个图像嵌入。请注意,这与Crafter仅使用一张图像的方法不同。

教程

进入Gradio界面后:

步骤0:上传一张图片或直接点击页面底部的示例图片。

步骤1:在标题为"步骤1"的UI中,点击生成提示以获取全局提示。

步骤2:在标题为"步骤2"的UI中,点击"生成关键帧"。您可以在左侧更改种子或其他参数。

步骤3:在标题为"步骤3"的UI中,点击"生成视频"。您可以在左侧更改种子或其他参数。

引用

@Misc{paintsundo,
  author = {Paints-Undo Team},
  title  = {Paints-Undo GitHub Page},
  year   = {2024},
}

应用

PaintsUndo的典型用例:

  1. 将PaintsUndo用作基础模型,分析人类行为,以构建符合人类行为和需求的AI工具,在完全可控的工作流程中实现AI与人类之间的无缝协作。

  2. 将PaintsUndo与草图引导的图像生成器结合,实现"PaintsRedo",从而在任何已完成/未完成的作品中任意前进或后退,增强人类的创造力。*

  3. 使用PaintsUndo查看您自己作品的不同可能过程,获取艺术灵感。

  4. 将PaintsUndo的输出用作一种视频/电影后期效果,以实现特定的创意目的。

还有更多...

  • 这已经是可能的 - 如果您使用PaintsUndo撤销500步,并希望以不同的可能性重做100步,您可以使用ControlNet完成它(使其成为第0步),然后撤销400步。更加集成的解决方案仍在实验中。

相关工作

另请阅读...

风格化神经绘画

基于模型的深度强化学习学习绘画

绘画变换器:具有笔触预测的前馈神经绘画

ProcessPainter:从序列数据学习绘画过程

将延时绘画分解为图层

免责声明

本项目旨在开发人类绘画行为的基础模型,以促进未来的AI系统更好地满足人类艺术家的真实需求。用户可以自由使用此工具创作内容,但应遵守当地法律并负责任地使用。用户不得利用该工具生成虚假信息或煽动对抗。开发者不对用户可能的滥用承担任何责任。

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号