Project Icon

MDT

MDTv2图像合成模型:更快收敛和卓越性能

MDTv2是一种先进的深度学习图像合成模型,在ImageNet数据集上实现了1.58的FID分数,创造新的业界标准。该模型采用掩码潜在建模技术,提高了图像语义理解能力,学习速度比先前模型快10倍以上。MDTv2在图像生成质量和训练效率方面都有显著提升,为计算机视觉和人工智能领域带来了新的可能性。

掩码扩散变换器 V2

PWC HuggingFace space

掩码扩散变换器是一个强大的图像合成器的官方代码库。

MDTv2:更快的收敛和更强的性能

MDTv2 在图像合成方面取得了卓越的性能,例如,在ImageNet数据集上达到了新的最佳FID分数1.58,并且学习速度比之前的最佳模型DiT快10倍以上。

MDTv2比原始MDT快5倍。

MDTv1代码

简介

尽管扩散概率模型(DPMs)在图像合成方面取得了成功,但我们观察到它们通常缺乏上下文推理能力,无法学习图像中物体部分之间的关系,导致学习过程缓慢。为解决这一问题,我们提出了掩码扩散变换器(MDT),引入了一种掩码潜在建模方案,明确增强DPMs在图像中学习物体语义部分之间上下文关系的能力。

在训练过程中,MDT在潜在空间中对某些标记进行掩码。然后,设计了一个不对称的扩散变换器,在保持扩散生成过程的同时,从未掩码的标记预测被掩码的标记。我们的MDT可以从不完整的上下文输入中重建图像的完整信息,从而使其能够学习图像标记之间的相关关系。我们进一步改进了MDT,采用了更高效的宏观网络结构和训练策略,命名为MDTv2。

实验结果表明,MDTv2在图像合成方面取得了卓越的性能,例如,在ImageNet数据集上达到了新的最佳FID分数1.58,并且学习速度比之前的最佳模型DiT快10倍以上。

image

性能

模型数据集分辨率FID-50KInception Score
MDT-XL/2ImageNet256x2561.79283.01
MDTv2-XL/2ImageNet256x2561.58314.73

预训练模型下载

模型托管在huggingface上,你也可以用以下方式下载:

from huggingface_hub import snapshot_download
models_path = snapshot_download("shgao/MDT-XL2")
ckpt_model_path = os.path.join(models_path, "mdt_xl2_v1_ckpt.pt")

huggingface演示在这里

FID的新最佳记录。

设置

准备Pytorch >=2.0版本。下载并安装此仓库。

git clone https://github.com/sail-sg/MDT
cd MDT
pip install -e .

安装Adan优化器,Adan是一个强大的优化器,收敛速度比AdamW更快。(论文)

python -m pip install git+https://github.com/sail-sg/Adan.git

数据

  • 对于标准数据集如ImageNet和CIFAR,请参考'dataset'进行准备。
  • 使用自定义数据集时,将图像文件名更改为ClassID_ImgID.jpg,因为ADM的数据加载器从文件名中获取类别ID。

训练

在单个节点上训练(`run.sh`)。
export OPENAI_LOGDIR=output_mdtv2_s2
NUM_GPUS=8

MODEL_FLAGS="--image_size 256 --mask_ratio 0.30 --decode_layer 6 --model MDTv2_S_2"
DIFFUSION_FLAGS="--diffusion_steps 1000"
TRAIN_FLAGS="--batch_size 32"
DATA_PATH=/dataset/imagenet

python -m torch.distributed.launch --nproc_per_node=$NUM_GPUS scripts/image_train.py --data_dir $DATA_PATH $MODEL_FLAGS $DIFFUSION_FLAGS $TRAIN_FLAGS
在多个节点上训练(`run_ddp_master.sh`和`run_ddp_worker.sh`)。
# 主节点:
export OPENAI_LOGDIR=output_mdtv2_xl2
MODEL_FLAGS="--image_size 256 --mask_ratio 0.30 --decode_layer 4 --model MDTv2_XL_2"
DIFFUSION_FLAGS="--diffusion_steps 1000"
TRAIN_FLAGS="--batch_size 4"
DATA_PATH=/dataset/imagenet
NUM_NODE=8
GPU_PRE_NODE=8

python -m torch.distributed.launch --master_addr=$(hostname) --nnodes=$NUM_NODE --node_rank=$RANK --nproc_per_node=$GPU_PRE_NODE --master_port=$MASTER_PORT scripts/image_train.py --data_dir $DATA_PATH $MODEL_FLAGS $DIFFUSION_FLAGS $TRAIN_FLAGS

# 工作节点:
export OPENAI_LOGDIR=output_mdtv2_xl2
MODEL_FLAGS="--image_size 256 --mask_ratio 0.30 --decode_layer 4 --model MDTv2_XL_2"
DIFFUSION_FLAGS="--diffusion_steps 1000"
TRAIN_FLAGS="--batch_size 4"
DATA_PATH=/dataset/imagenet
NUM_NODE=8
GPU_PRE_NODE=8

python -m torch.distributed.launch --master_addr=$MASTER_ADDR --nnodes=$NUM_NODE --node_rank=$RANK --nproc_per_node=$GPU_PRE_NODE --master_port=$MASTER_PORT scripts/image_train.py --data_dir $DATA_PATH $MODEL_FLAGS $DIFFUSION_FLAGS $TRAIN_FLAGS

评估

评估代码来自ADM的TensorFlow评估套件。 请按照evaluations文件夹中的说明设置评估环境。

采样和评估(`run_sample.sh`):
MODEL_PATH=output_mdtv2_xl2/mdt_xl2_v2_ckpt.pt
export OPENAI_LOGDIR=output_mdtv2_xl2_eval
NUM_GPUS=8

echo 'CFG类条件采样:'
MODEL_FLAGS="--image_size 256 --model MDTv2_XL_2 --decode_layer 4"
DIFFUSION_FLAGS="--num_sampling_steps 250 --num_samples 50000  --cfg_cond True"
echo $MODEL_FLAGS
echo $DIFFUSION_FLAGS
echo $MODEL_PATH
python -m torch.distributed.launch --nproc_per_node=$NUM_GPUS scripts/image_sample.py --model_path $MODEL_PATH $MODEL_FLAGS $DIFFUSION_FLAGS
echo $MODEL_FLAGS
echo $DIFFUSION_FLAGS
echo $MODEL_PATH
python evaluations/evaluator.py ../dataeval/VIRTUAL_imagenet256_labeled.npz $OPENAI_LOGDIR/samples_50000x256x256x3.npz

echo '类条件采样:'
MODEL_FLAGS="--image_size 256 --model MDTv2_XL_2 --decode_layer 4"
DIFFUSION_FLAGS="--num_sampling_steps 250 --num_samples 50000"
echo $MODEL_FLAGS
echo $DIFFUSION_FLAGS
echo $MODEL_PATH
python -m torch.distributed.launch --nproc_per_node=$NUM_GPUS scripts/image_sample.py --model_path $MODEL_PATH $MODEL_FLAGS $DIFFUSION_FLAGS
echo $MODEL_FLAGS
echo $DIFFUSION_FLAGS
echo $MODEL_PATH
python evaluations/evaluator.py ../dataeval/VIRTUAL_imagenet256_labeled.npz $OPENAI_LOGDIR/samples_50000x256x256x3.npz

可视化

运行 infer_mdt.py 生成图像。

引用

@misc{gao2023masked,
      title={Masked Diffusion Transformer is a Strong Image Synthesizer}, 
      author={Shanghua Gao and Pan Zhou and Ming-Ming Cheng and Shuicheng Yan},
      year={2023},
      eprint={2303.14389},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}

致谢

此代码库基于 DiTADM 构建。在此表示感谢!

项目侧边栏1项目侧边栏2
推荐项目
Project Cover

豆包MarsCode

豆包 MarsCode 是一款革命性的编程助手,通过AI技术提供代码补全、单测生成、代码解释和智能问答等功能,支持100+编程语言,与主流编辑器无缝集成,显著提升开发效率和代码质量。

Project Cover

AI写歌

Suno AI是一个革命性的AI音乐创作平台,能在短短30秒内帮助用户创作出一首完整的歌曲。无论是寻找创作灵感还是需要快速制作音乐,Suno AI都是音乐爱好者和专业人士的理想选择。

Project Cover

有言AI

有言平台提供一站式AIGC视频创作解决方案,通过智能技术简化视频制作流程。无论是企业宣传还是个人分享,有言都能帮助用户快速、轻松地制作出专业级别的视频内容。

Project Cover

Kimi

Kimi AI助手提供多语言对话支持,能够阅读和理解用户上传的文件内容,解析网页信息,并结合搜索结果为用户提供详尽的答案。无论是日常咨询还是专业问题,Kimi都能以友好、专业的方式提供帮助。

Project Cover

阿里绘蛙

绘蛙是阿里巴巴集团推出的革命性AI电商营销平台。利用尖端人工智能技术,为商家提供一键生成商品图和营销文案的服务,显著提升内容创作效率和营销效果。适用于淘宝、天猫等电商平台,让商品第一时间被种草。

Project Cover

吐司

探索Tensor.Art平台的独特AI模型,免费访问各种图像生成与AI训练工具,从Stable Diffusion等基础模型开始,轻松实现创新图像生成。体验前沿的AI技术,推动个人和企业的创新发展。

Project Cover

SubCat字幕猫

SubCat字幕猫APP是一款创新的视频播放器,它将改变您观看视频的方式!SubCat结合了先进的人工智能技术,为您提供即时视频字幕翻译,无论是本地视频还是网络流媒体,让您轻松享受各种语言的内容。

Project Cover

美间AI

美间AI创意设计平台,利用前沿AI技术,为设计师和营销人员提供一站式设计解决方案。从智能海报到3D效果图,再到文案生成,美间让创意设计更简单、更高效。

Project Cover

AIWritePaper论文写作

AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。

投诉举报邮箱: service@vectorlightyear.com
@2024 懂AI·鲁ICP备2024100362号-6·鲁公网安备37021002001498号