Skip to content

Latest commit

 

History

History
 
 

tiny_pose

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 
 
 
 
 
 
 

简体中文 | English

PP-TinyPose

图片来源:COCO2017开源数据集

简介

PP-TinyPose是PaddleDetecion针对移动端设备优化的实时关键点检测模型,可流畅地在移动端设备上执行多人姿态估计任务。借助PaddleDetecion自研的优秀轻量级检测模型PicoDet,我们同时提供了特色的轻量级垂类行人检测模型。TinyPose的运行环境有以下依赖要求:

如希望在移动端部署,则还需要:

部署案例

  • 欢迎扫码快速体验

模型库

关键点检测模型

模型 输入尺寸 AP (COCO Val) 单人推理耗时 (FP32) 单人推理耗时(FP16) 配置文件 模型权重 预测部署模型 Paddle-Lite部署模型(FP32) Paddle-Lite部署模型(FP16)
PP-TinyPose 128*96 58.1 4.57ms 3.27ms Config Model 预测部署模型 Lite部署模型 Lite部署模型(FP16)
PP-TinyPose 256*192 68.8 14.07ms 8.33ms Config Model 预测部署模型 Lite部署模型 Lite部署模型(FP16)

行人检测模型

模型 输入尺寸 mAP (COCO Val) 平均推理耗时 (FP32) 平均推理耗时 (FP16) 配置文件 模型权重 预测部署模型 Paddle-Lite部署模型(FP32) Paddle-Lite部署模型(FP16)
PicoDet-S-Pedestrian 192*192 29.0 4.30ms 2.37ms Config Model 预测部署模型 Lite部署模型 Lite部署模型(FP16)
PicoDet-S-Pedestrian 320*320 38.5 10.26ms 6.30ms Config Model 预测部署模型 Lite部署模型 Lite部署模型(FP16)

说明

  • 关键点检测模型与行人检测模型均使用COCO train2017AI Challenger trainset作为训练集。关键点检测模型使用COCO person keypoints val2017作为测试集,行人检测模型采用COCO instances val2017作为测试集。
  • 关键点检测模型的精度指标所依赖的检测框为ground truth标注得到。
  • 关键点检测模型与行人检测模型均在4卡环境下训练,若实际训练环境需要改变GPU数量或batch size, 须参考FAQ对应调整学习率。
  • 推理速度测试环境为 Qualcomm Snapdragon 865,采用arm8下4线程推理得到。

Pipeline性能

单人模型配置 AP (COCO Val 单人) 单人耗时 (FP32) 单人耗时 (FP16)
PicoDet-S-Pedestrian-192*192 + PP-TinyPose-128*96 51.8 11.72 ms 8.18 ms
其他优秀开源模型-192*192 22.3 12.0 ms -
多人模型配置 AP (COCO Val 多人) 6人耗时 (FP32) 6人耗时 (FP16)
PicoDet-S-Pedestrian-320*320 + PP-TinyPose-128*96 50.3 44.0 ms 32.57 ms
其他优秀开源模型-256*256 39.4 51.0 ms -

说明

  • 关键点检测模型的精度指标是基于对应行人检测模型检测得到的检测框。
  • 精度测试中去除了flip操作,且检测置信度阈值要求0.5。
  • 精度测试中,为了公平比较,多人数据去除了6人以上(不含6人)的图像。
  • 速度测试环境为qualcomm snapdragon 865,采用arm8下4线程、FP32推理得到。
  • Pipeline速度包含模型的预处理、推理及后处理部分。
  • 其他优秀开源模型的测试及部署方案,请参考这里

模型训练

关键点检测模型与行人检测模型的训练集在COCO以外还扩充了AI Challenger数据集,各数据集关键点定义如下:

COCO keypoint Description:
    0: "Nose",
    1: "Left Eye",
    2: "Right Eye",
    3: "Left Ear",
    4: "Right Ear",
    5: "Left Shoulder,
    6: "Right Shoulder",
    7: "Left Elbow",
    8: "Right Elbow",
    9: "Left Wrist",
    10: "Right Wrist",
    11: "Left Hip",
    12: "Right Hip",
    13: "Left Knee",
    14: "Right Knee",
    15: "Left Ankle",
    16: "Right Ankle"

AI Challenger Description:
    0: "Right Shoulder",
    1: "Right Elbow",
    2: "Right Wrist",
    3: "Left Shoulder",
    4: "Left Elbow",
    5: "Left Wrist",
    6: "Right Hip",
    7: "Right Knee",
    8: "Right Ankle",
    9: "Left Hip",
    10: "Left Knee",
    11: "Left Ankle",
    12: "Head top",
    13: "Neck"

由于两个数据集的关键点标注形式不同,我们将两个数据集的标注进行了对齐,仍然沿用COCO的标注形式,您可以下载训练的参考列表并放在dataset/下使用。对齐两个数据集标注文件的主要处理如下:

  • AI Challenger关键点标注顺序调整至与COCO一致,统一是否标注/可见的标志位;
  • 舍弃了AI Challenger中特有的点位;将AI Challenger数据中COCO特有点位标记为未标注;
  • 重新排列了image_idannotation id; 利用转换为COCO形式的合并数据标注,执行模型训练:
# 关键点检测模型
python3 -m paddle.distributed.launch tools/train.py -c configs/keypoint/tiny_pose/tinypose_128x96.yml

# 行人检测模型
python3 -m paddle.distributed.launch tools/train.py -c configs/picodet/application/pedestrian_detection/picodet_s_320_pedestrian.yml

部署流程

实现部署预测

  1. 通过以下命令将训练得到的模型导出:
python3 tools/export_model.py -c configs/picodet/application/pedestrian_detection/picodet_s_192_pedestrian.yml --output_dir=outut_inference -o weights=output/picodet_s_192_pedestrian/model_final

python3 tools/export_model.py -c configs/keypoint/tiny_pose/tinypose_128x96.yml --output_dir=outut_inference -o weights=output/tinypose_128x96/model_final

导出后的模型如:

picodet_s_192_pedestrian
├── infer_cfg.yml
├── model.pdiparams
├── model.pdiparams.info
└── model.pdmodel

您也可以直接下载模型库中提供的对应预测部署模型,分别获取得到行人检测模型和关键点检测模型的预测部署模型,解压即可。

  1. 执行Python联合部署预测
# 预测一张图片
python3 deploy/python/det_keypoint_unite_infer.py --det_model_dir=output_inference/picodet_s_320_pedestrian --keypoint_model_dir=output_inference/tinypose_128x96 --image_file={your image file} --device=GPU

# 预测多张图片
python3 deploy/python/det_keypoint_unite_infer.py --det_model_dir=output_inference/picodet_s_320_pedestrian --keypoint_model_dir=output_inference/tinypose_128x96 --image_dir={dir of image file} --device=GPU

# 预测一个视频
python3 deploy/python/det_keypoint_unite_infer.py --det_model_dir=output_inference/picodet_s_320_pedestrian --keypoint_model_dir=output_inference/tinypose_128x96 --video_file={your video file} --device=GPU
  1. 执行C++联合部署预测
  • 请先按照C++端预测部署,根据您的实际环境准备对应的paddle_inference库及相关依赖。
  • 我们提供了一键编译脚本,您可以通过该脚本填写相关环境变量的位置,编译上述代码后,得到可执行文件。该过程中请保证WITH_KEYPOINT=ON.
  • 编译完成后,即可执行部署预测,例如:
# 预测一张图片
./build/main --model_dir=output_inference/picodet_s_320_pedestrian --model_dir_keypoint=output_inference/tinypose_128x96 --image_file={your image file} --device=GPU

# 预测多张图片
./build/main --model_dir=output_inference/picodet_s_320_pedestrian --model_dir_keypoint=output_inference/tinypose_128x96 --image_dir={dir of image file} --device=GPU

# 预测一个视频
./build/main --model_dir=output_inference/picodet_s_320_pedestrian --model_dir_keypoint=output_inference/tinypose_128x96 --video_file={your video file} --device=GPU

实现移动端部署

直接使用我们提供的模型进行部署

  1. 下载模型库中提供的Paddle-Lite部署模型,分别获取得到行人检测模型和关键点检测模型的.nb格式文件。
  2. 准备Paddle-Lite运行环境, 可直接通过PaddleLite预编译库下载获取预编译库,无需自行编译。如需要采用FP16推理,则需要下载FP16的预编译库
  3. 编译模型运行代码,详细步骤见Paddle-Lite端侧部署

将训练的模型实现端侧部署

如果您希望将自己训练的模型应用于部署,可以参考以下步骤:

  1. 将训练的模型导出
python3 tools/export_model.py -c configs/picodet/application/pedestrian_detection/picodet_s_192_pedestrian.yml --output_dir=outut_inference -o weights=output/picodet_s_192_pedestrian/model_final TestReader.fuse_normalize=true

python3 tools/export_model.py -c configs/keypoint/tiny_pose/tinypose_128x96.yml --output_dir=outut_inference -o weights=output/tinypose_128x96/model_final TestReader.fuse_normalize=true
  1. 转换为Lite模型(依赖Paddle-Lite)
  • 安装Paddle-Lite:
pip install paddlelite
  • 执行以下步骤,以得到对应后缀为.nb的Paddle-Lite模型用于端侧部署:
# 1. 转换行人检测模型
# FP32
paddle_lite_opt --model_dir=inference_model/picodet_s_192_pedestrian --valid_targets=arm --optimize_out=picodet_s_192_pedestrian_fp32
# FP16
paddle_lite_opt --model_dir=inference_model/picodet_s_192_pedestrian --valid_targets=arm --optimize_out=picodet_s_192_pedestrian_fp16 --enable_fp16=true

# 2. 转换关键点检测模型
# FP32
paddle_lite_opt --model_dir=inference_model/tinypose_128x96 --valid_targets=arm --optimize_out=tinypose_128x96_fp32
# FP16
paddle_lite_opt --model_dir=inference_model/tinypose_128x96 --valid_targets=arm --optimize_out=tinypose_128x96_fp16 --enable_fp16=true
  1. 编译模型运行代码,详细步骤见Paddle-Lite端侧部署

我们已提供包含数据预处理、模型推理及模型后处理的全流程示例代码,可根据实际需求进行修改。

注意

  • 在导出模型时增加TestReader.fuse_normalize=true参数,可以将对图像的Normalize操作合并在模型中执行,从而实现加速。
  • FP16推理可实现更快的模型推理速度。若希望部署FP16模型,除模型转换步骤外,还需要编译支持FP16的Paddle-Lite预测库,详见Paddle Lite 使用 ARM CPU 预测部署

优化策略

TinyPose采用了以下策略来平衡模型的速度和精度表现:

  • 轻量级的姿态估计任务骨干网络,wider naive Lite-HRNet
  • 更小的输入尺寸。
  • 加入Distribution-Aware coordinate Representation of Keypoints (DARK),以提升低分辨率热力图下模型的精度表现。
  • Unbiased Data Processing (UDP)。
  • Augmentation by Information Dropping (AID)。
  • FP16 推理。