#CIFAR10
image-gpt - 支持多数据集的生成预训练模型
Github开源项目PyTorchFashion-MNISTImage GPT生成式预训练CIFAR10
Image GPT是一个基于生成像素预训练模型(Generative Pretraining from Pixels)的PyTorch实现,支持多种预训练模型和数据集。该项目允许下载预训练模型、量化图像、进行生成预训练和分类微调。它还具有BERT风格的预训练、支持加载OpenAI预训练模型等功能。目前,使用单个NVIDIA 2070 GPU可在Fashion-MNIST上实现高效训练,简化了多种图像数据集上的生成模型训练和应用流程。
hlb-CIFAR10 - 单GPU上CIFAR-10数据集训练的世界纪录级深度学习模型
Github开源项目深度学习神经网络GPU训练CIFAR10超快速训练
hlb-CIFAR10是一个专注于快速训练CIFAR-10数据集的开源项目。该项目在单GPU上实现了世界纪录级的训练速度,目前可在A100 GPU上在约6.3秒内完成训练。项目基于David Page的实现进行了优化,包括自定义架构、超参数调优和内存格式改进。代码设计简洁,易于理解和修改,适合研究人员进行快速实验和创新。项目目标是在未来1-2年内将训练时间进一步缩短到2秒以内。
ddpm-ema-celebahq-256 - 无条件图像生成的高效去噪扩散模型
Github开源项目模型图像合成HuggingfaceCIFAR10DDPM噪声调度器ProgressiveGAN
项目通过去噪扩散概率模型实现高质量无条件图像生成,结合无平衡态热力学概念,在CIFAR10和256x256 LSUN数据集上取得了优异的Inception和FID评分。用户可以灵活选择噪声调度器以平衡生成质量与速度,该模型也支持渐进式无损压缩,作为自动回归解码的推广。详情请参照官方推理与训练示例。
vit-base-patch16-224-cifar10 - 视觉Transformer在CIFAR10上的图像分类优化
Github开源项目深度学习模型微调模型图像分类HuggingfaceVision TransformerCIFAR10
Vision Transformer (ViT) 模型经过ImageNet-21k数据集的预训练,并在CIFAR10数据集上微调,适用于224x224分辨率的图像分类任务。采用16x16像素的固定大小图像补丁进行特征提取,为下游任务提供了有效支持。在GitHub上访问相关代码,了解如何将该技术应用到各种项目中。