Project Icon

fast-DiT

改进PyTorch实现的可扩展扩散模型转换器

fast-DiT 项目提供了扩散模型转换器(DiT)的改进 PyTorch 实现。该项目包含预训练的类条件 DiT 模型、Hugging Face Space 和 Colab 笔记本,以及优化的训练脚本。通过采用梯度检查点、混合精度训练和 VAE 特征预提取等技术,显著提升了训练速度和内存效率。这一实现为研究人员和开发者提供了探索和应用扩散模型的有力工具。

基于Transformer的可扩展扩散模型 (DiT)
改进的PyTorch实现

论文 | 项目页面 | 运行 DiT-XL/2 Hugging Face Spaces 在Colab中打开

DiT 样本

本仓库提供了论文基于Transformer的可扩展扩散模型的改进PyTorch实现。

它包含:

设置

首先,下载并设置仓库:

git clone https://github.com/chuanyangjin/fast-DiT.git
cd DiT

我们提供了一个environment.yml文件,可用于创建Conda环境。如果你只想在CPU上本地运行预训练模型,可以从文件中删除cudatoolkitpytorch-cuda要求。

conda env create -f environment.yml
conda activate DiT

采样 Hugging Face Spaces 在Colab中打开

更多DiT样本

预训练DiT检查点。 你可以使用sample.py从我们的预训练DiT模型中采样。根据你使用的模型,预训练DiT模型的权重将自动下载。该脚本有多个参数,可以在256x256和512x512模型之间切换,调整采样步骤,更改无分类器引导尺度等。例如,要从我们的512x512 DiT-XL/2模型中采样,你可以使用:

python sample.py --image-size 512 --seed 1

为方便起见,我们的预训练DiT模型也可以直接在这里下载:

DiT 模型图像分辨率FID-50KInception 得分Gflops
XL/2256x2562.27278.24119
XL/2512x5123.04240.82525

自定义 DiT 检查点。 如果你使用 train.py 训练了新的 DiT 模型(参见下文),你可以添加 --ckpt 参数来使用你自己的检查点。例如,要从自定义的 256x256 DiT-L/4 模型的 EMA 权重进行采样,运行:

python sample.py --model DiT-L/4 --image-size 256 --ckpt /path/to/model.pt

训练

训练前准备

要在一个节点上使用 1 个 GPU 提取 ImageNet 特征:

torchrun --nnodes=1 --nproc_per_node=1 extract_features.py --model DiT-XL/2 --data-path /path/to/imagenet/train --features-path /path/to/store/features

训练 DiT

我们在 train.py 中提供了 DiT 的训练脚本。这个脚本可以用来训练类别条件的 DiT 模型,但也可以轻松修改以支持其他类型的条件。

要在一个节点上使用 1 个 GPU 启动 DiT-XL/2(256x256)训练:

accelerate launch --mixed_precision fp16 train.py --model DiT-XL/2 --features-path /path/to/store/features

要在一个节点上使用 N 个 GPU 启动 DiT-XL/2(256x256)训练:

accelerate launch --multi_gpu --num_processes N --mixed_precision fp16 train.py --model DiT-XL/2 --features-path /path/to/store/features

另外,你也可以选择提取和训练位于 training options 文件夹中的脚本。

PyTorch 训练结果

我们使用 PyTorch 训练脚本从头开始训练了 DiT-XL/2 和 DiT-B/4 模型,以验证它能够在数十万次训练迭代中重现原始 JAX 的结果。在我们的实验中,PyTorch 训练的模型与 JAX 训练的模型相比,在合理的随机变化范围内,给出了相似(有时甚至略好)的结果。以下是一些数据点:

DiT 模型训练步数FID-50K
(JAX 训练)
FID-50K
(PyTorch 训练)
PyTorch 全局训练种子
XL/2400K19.518.142
B/4400K68.468.942
B/4400K68.468.3100

这些模型在 256x256 分辨率下训练;我们使用 8 个 A100 GPU 训练 XL/2,4 个 A100 GPU 训练 B/4。注意,此处的 FID 是使用 250 步 DDPM 采样计算得出的,使用 mse VAE 解码器,且没有引导(cfg-scale=1)。

提升训练性能

与原始实现相比,我们实施了一系列训练速度加速和内存节省功能,包括梯度检查点、混合精度训练和预提取VAE特征,在DiT-XL/2上实现了95%的速度提升和60%的内存减少。以下是使用A100、全局批量大小为128的一些数据点:

梯度检查点混合精度训练特征预提取训练速度内存使用
-内存不足
0.43步/秒44045 MB
0.56步/秒40461 MB
0.84步/秒27485 MB

评估(FID、Inception Score等)

我们提供了一个sample_ddp.py脚本,可以并行地从DiT模型中采样大量图像。这个脚本生成一个包含样本的文件夹以及一个.npz文件,可以直接用于ADM的TensorFlow评估套件来计算FID、Inception Score和其他指标。例如,要使用N个GPU从我们预训练的DiT-XL/2模型中采样50K张图像,运行:

torchrun --nnodes=1 --nproc_per_node=N sample_ddp.py --model DiT-XL/2 --num-fid-samples 50000

还有其他几个选项;详情请参见sample_ddp.py

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号