mtmct.md 3.4 KB
Newer Older
J
JYChen 已提交
1 2
[English](mtmct_en.md) | 简体中文

Z
zhiboniu 已提交
3 4 5
# PP-Human跨镜头跟踪模块

跨镜头跟踪任务,是在单镜头跟踪的基础上,实现不同摄像头中人员的身份匹配关联。在安放、智慧零售等方向有较多的应用。
Z
zhiboniu 已提交
6
PP-Human跨镜头跟踪模块主要目的在于提供一套简洁、高效的跨镜跟踪Pipeline,REID模型完全基于开源数据集训练。
Z
zhiboniu 已提交
7 8 9

## 使用方法

10
1. 下载模型 [REID模型](https://bj.bcebos.com/v1/paddledet/models/pipeline/reid_model.zip) 并解压到```./output_inference```路径下,修改配置文件中模型路径。也可简单起见直接用默认配置,自动下载模型。 MOT模型请参考[mot说明](./mot.md)文件下载。
Z
zhiboniu 已提交
11

F
Feng Ni 已提交
12
2. 跨镜头跟踪模式下,要求输入的多个视频放在同一目录下,同时开启infer_cfg_pphuman.yml 中的REID选择中的enable=True, 命令如下:
Z
zhiboniu 已提交
13
```python
Z
zhiboniu 已提交
14
python3 deploy/pipeline/pipeline.py --config deploy/pipeline/config/infer_cfg_pphuman.yml --video_dir=[your_video_file_directory] --device=gpu
Z
zhiboniu 已提交
15 16
```

Z
zhiboniu 已提交
17
3. 相关配置在`./deploy/pipeline/config/infer_cfg_pphuman.yml`文件中修改:
Z
zhiboniu 已提交
18 19

```python
Z
zhiboniu 已提交
20 21
python3 deploy/pipeline/pipeline.py
        --config deploy/pipeline/config/infer_cfg_pphuman.yml
Z
zhiboniu 已提交
22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
        --video_dir=[your_video_file_directory]
        --device=gpu
        --model_dir reid=reid_best/
```

## 方案说明

跨镜头跟踪模块,主要由跨镜头跟踪Pipeline及REID模型两部分组成。
1. 跨镜头跟踪Pipeline

```

单镜头跟踪[id+bbox]

根据bbox截取原图中目标——│
        │            │
    REID模型      质量评估(遮挡、完整度、亮度等)
        │            │
    [feature]        [quality]
        │            │
   datacollector—————│

      特征排序、筛选

 多视频各id相似度计算

  id聚类、重新分配id
```

51
2. 模型方案为[reid-strong-baseline](https://github.com/michuanhaohao/reid-strong-baseline), Backbone为ResNet50, 主要特色为模型结构简单。
Z
zhiboniu 已提交
52
本跨镜跟踪中所用REID模型在上述基础上,整合多个开源数据集并压缩模型特征到128维以提升泛化性能。大幅提升了在实际应用中的泛化效果。
Z
zhiboniu 已提交
53 54

### 其他建议
Z
zhiboniu 已提交
55
- 提供的REID模型基于开源数据集训练得到,建议加入自有数据,训练更加强有力的REID模型,将非常明显提升跨镜跟踪效果。
Z
zhiboniu 已提交
56 57 58 59 60 61 62
- 质量评估部分基于简单逻辑+OpenCV实现,效果有限,如果有条件建议针对性训练质量判断模型。


### 示例效果

- camera 1:
<div width="1080" align="center">
W
wangguanzhong 已提交
63
  <img src="../images/c1.gif"/>
Z
zhiboniu 已提交
64 65 66 67
</div>

- camera 2:
<div width="1080" align="center">
W
wangguanzhong 已提交
68
  <img src="../images/c2.gif"/>
Z
zhiboniu 已提交
69 70 71 72 73
</div>


## 参考文献
```
74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89
@InProceedings{Luo_2019_CVPR_Workshops,
author = {Luo, Hao and Gu, Youzhi and Liao, Xingyu and Lai, Shenqi and Jiang, Wei},
title = {Bag of Tricks and a Strong Baseline for Deep Person Re-Identification},
booktitle = {The IEEE Conference on Computer Vision and Pattern Recognition (CVPR) Workshops},
month = {June},
year = {2019}
}

@ARTICLE{Luo_2019_Strong_TMM,
author={H. {Luo} and W. {Jiang} and Y. {Gu} and F. {Liu} and X. {Liao} and S. {Lai} and J. {Gu}},
journal={IEEE Transactions on Multimedia},
title={A Strong Baseline and Batch Normalization Neck for Deep Person Re-identification},
year={2019},
pages={1-1},
doi={10.1109/TMM.2019.2958756},
ISSN={1941-0077},
Z
zhiboniu 已提交
90 91
}
```