项目介绍:Dress Code 数据集
Dress Code 项目是一个高分辨率多类别虚拟试穿的数据集,由D. Morelli, M. Fincato, M. Cornia, F. Landi, F. Cesari 和 R. Cucchiara 提出。这个数据集的主旨是为图像虚拟试穿提供高质量的数据支持,主要涉及多种服装类别。通过分析多个不同的服装目录,这个数据集共收集了超过五万对的高分辨率服装模型图像。
数据集详情
Dress Code 数据集的图像由来自 YOOX NET-A-PORTER 的不同目录中的服装组成,共分为三个主要的服装类别:上身服装、下身服装和连衣裙。这些图像的分辨率为1024 x 768,确保了图像的高质量和细节呈现。此外,每对图像还附带了相关的信息,如关键点、骨架、人类标注图和人类密集姿态。
数据集概要
- 总共服装数量:53792件
- 图像总数:107584张
- 类别:上衣、下身服装、连衣裙
- 分辨率:1024 x 768
- 附加信息:
- 关键点
- 骨架
- 人类标注图
- 人类密集姿态
附加信息描述
数据集中,除了模型和服装图像对之外,每幅图像还附带了详细的辅助信息,以支持更深入的研究和应用。这些信息包括:
- 关键点:使用OpenPose提取的18个关键点来表示人体的各个关节。
- 骨架:通过连接关键点形成的RGB图像,展示人体的姿势结构。
- 人类标注图:为每个图像像素分配类别,从而得到目标模型的分割掩码。
- 人类密集姿态:使用DensePose提取的密集标签和UV映射。
实验结果
在低分辨率(256 x 192)的情况下,Dress Code 项目的效果得到了多种指标的验证,如结构相似性指数(SSIM)、生成对抗网络分数(FID)和核独立指标(KID)。实验结果展示了该数据集在多个试穿模型中的表现,以及其强大的应用潜力。
项目代码
由于合作协议的限制,Dress Code 项目无法公开完整的代码。然而,该项目提供了一个空的Pytorch项目,用于加载数据,便于研究者自行开发和实验。
引用和联系方式
如需要参考本项目,请使用提供的BibTeX格式引用。如果对数据集有任何疑问,可通过其GitHub页面的公共问题部分进行咨询,或直接通过电子邮件联系项目作者。