PARE项目介绍
背景
PARE(Part Attention Regressor for 3D Human Body Estimation)是一个用于3D人体姿态和形状估计的前沿方法。这项技术由Muhammed Kocabas等人在国际计算机视觉会议(ICCV)2021年上发表。PARE尤其强调在挡住某些部分的情况下,也能稳健地估计出人体的姿势和形态。
功能特色
PARE的主要功能是提供一种在遮挡情况下依然稳定的人体姿势和形状估计方法。在模型实现方面,项目以PyTorch为基础,提供了完整的演示与评估代码。因此,PARE适合于研究人员和开发者在阻挡因素影响下进行高精度3D人体模型构建。
最新更新
截至2021年10月13日,PARE项目提供了完善的演示和评估代码。这使得用户能够在本地环境中快速测试和评估该技术。
快速开始
PARE支持在Ubuntu 18.04操作系统和Python 3.7及以上版本的环境中运行。倘若用户没有合适的设备,可以尝试使用Google Colab在线演示。
安装步骤如下:
-
克隆项目仓库:
git clone https://github.com/mkocabas/PARE.git
-
使用virtualenv或conda安装必要依赖:
-
使用pip:
source scripts/install_pip.sh
-
使用conda:
source scripts/install_conda.sh
-
演示功能
视频演示
用户需首先下载所需的数据,包括已训练好的模型和SMPL模型参数,约1.3GB。下载后,可以运行以下命令进行视频演示:
python scripts/demo.py --vid_file data/sample_video.mp4 --output_folder logs/demo
成功运行后,输出将在指定文件夹中生成。
图片文件夹演示
用户还可以对图片文件夹进行演示:
python scripts/demo.py --image_folder <path to image folder> --output_folder logs/demo
结果输出
演示成功后,系统会在输出文件夹中创建名为pare_output.pkl
的文件。用户可以借助joblib
或pickle
等工具读取并查看内容。
训练与评估
目前,PARE提供了评估指南。运行评估需要提前下载3DPW和3DOH数据集,准备好后,通过下列命令可以评估PARE的性能:
python scripts/eval.py \
--cfg data/pare/checkpoints/pare_config.yaml \
--opts DATASET.VAL_DS 3doh_3dpw-all
在3DPW测试集上,PARE显示了卓越的估计精度。
遮挡敏感性分析
PARE还配备了遮挡敏感性分析脚本,帮助用户理解在部分遮挡情况下对姿态估计的影响:
python scripts/occlusion_analysis.py \
--cfg data/pare/checkpoints/pare_config.yaml \
--ckpt data/pare/checkpoints/pare_checkpoint.ckpt
许可与引用
PARE代码可用于非商业科研。用户需遵循项目LICENSE中的相关条款进行下载和使用。此外,如在项目中使用了PARE,建议参考并引用相关文献。
联系方式
若有问题或需要商用许可,请联系相应的邮箱进行咨询。