项目介绍:Lightweight Human Pose Estimation
什么是轻量级人类姿态估计?
轻量级人类姿态估计项目提供了一种在CPU上进行实时多人体姿态估计的方法。该项目基于OpenPose方法,对其进行深度优化,使其在运行速度方面达到实时要求的同时,仅在准确率上有微小的损失。该模型通过识别图像中每个人的关键点和它们之间的连接(即人体骨架),来估计人体的姿态。总共可以检测出18个关键点,包括:耳朵、眼睛、鼻子、脖子、肩膀、肘部、手腕、臀部、膝盖和脚踝。
在COCO 2017关键点检测验证集上,该项目代码在单尺度推理下(无翻转或任何后处理)可以达到40%的AP(平均精度),这一结果可通过项目中提供的代码重复实现。
项目的亮点
该项目不仅保持了高效的姿态估计能力,还开创了更轻量级的3D姿态估计方法,并在CVPR'19的Look-Into-Person挑战中排名第十。
安装要求
要运行此项目,用户需要:
- 操作系统:Ubuntu 16.04
- 编程语言:Python 3.6
- 框架:PyTorch 0.4.1(理论上可以支持1.0,但尚未测试)
先决条件
- 下载COCO 2017数据集,并解压到指定文件夹。
- 安装项目依赖:运行命令
pip install -r requirements.txt
。
模型训练流程
模型训练分为三个步骤,每一步的训练都会提升AP值:
- 使用MobileNet预训练权重进行初始训练。
- 在此基础上进行二次训练。
- 在已获得的权重基础上,增加网络中的细化阶段至3个,再次进行训练。
验证模型
要验证模型的有效性,使用命令 python val.py
进行模型验证。
预训练模型
该模型期待输入格式为经过归一化处理的图像,并提供了40% AP的预训练模型供下载使用。
演示
项目提供了C++和Python两种演示方式:
- C++ 演示:推荐用于最佳性能体验。
- Python 演示:用于快速预览结果。
引用
如果该项目对您的研究有所帮助,请引用相关论文。
该项目是人类姿态估计领域的一个重要成果,通过轻量级的设计实现了在普通硬件上的高效运行,为后续研究提供了宝贵的范例。