MODEL_ZOO_cn.md 3.8 KB
Newer Older
Q
qingqing01 已提交
1 2 3 4 5 6
# 模型库和基线

## 测试环境

- Python 3.7
- PaddlePaddle 每日版本
7 8 9
- CUDA 10.1
- cuDNN 7.5
- NCCL 2.4.8
Q
qingqing01 已提交
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

## 通用设置

- 所有模型均在COCO17数据集中训练和测试。
- 除非特殊说明,所有ResNet骨干网络采用[ResNet-B](https://arxiv.org/pdf/1812.01187)结构。
- **推理时间(fps)**: 推理时间是在一张Tesla V100的GPU上通过'tools/eval.py'测试所有验证集得到,单位是fps(图片数/秒), cuDNN版本是7.5,包括数据加载、网络前向执行和后处理, batch size是1。

## 训练策略

- 我们采用和[Detectron](https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md#training-schedules)相同的训练策略。
- 1x 策略表示:在总batch size为8时,初始学习率为0.01,在8 epoch和11 epoch后学习率分别下降10倍,最终训练12 epoch。
- 2x 策略为1x策略的两倍,同时学习率调整位置也为1x的两倍。

## ImageNet预训练模型

G
Guanghua Yu 已提交
25
Paddle提供基于ImageNet的骨架网络预训练模型。所有预训练模型均通过标准的Imagenet-1k数据集训练得到,ResNet和MobileNet等是采用余弦学习率调整策略或SSLD知识蒸馏训练得到的高精度预训练模型,可在[PaddleClas](https://github.com/PaddlePaddle/PaddleClas)查看模型细节。
Q
qingqing01 已提交
26 27 28 29


## 基线

G
Guanghua Yu 已提交
30
### Faster R-CNN
Q
qingqing01 已提交
31

W
wangguanzhong 已提交
32
请参考[Faster R-CNN](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/faster_rcnn/)
33

G
Guanghua Yu 已提交
34
### Mask R-CNN
35

W
wangguanzhong 已提交
36
请参考[Mask R-CNN](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/mask_rcnn/)
37

G
Guanghua Yu 已提交
38
### Cascade R-CNN
39

40
请参考[Cascade R-CNN](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/cascade_rcnn)
41

G
Guanghua Yu 已提交
42
### YOLOv3
43

W
wangguanzhong 已提交
44
请参考[YOLOv3](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/yolov3/)
Q
qingqing01 已提交
45

G
Guanghua Yu 已提交
46
### SSD
Q
qingqing01 已提交
47

W
wangguanzhong 已提交
48
请参考[SSD](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/ssd/)
G
Guanghua Yu 已提交
49

F
Feng Ni 已提交
50 51
### FCOS

W
wangguanzhong 已提交
52
请参考[FCOS](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/fcos/)
F
Feng Ni 已提交
53

G
Guanghua Yu 已提交
54 55
### SOLOv2

W
wangguanzhong 已提交
56
请参考[SOLOv2](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/solov2/)
F
Feng Ni 已提交
57 58 59

### PP-YOLO

W
wangguanzhong 已提交
60
请参考[PP-YOLO](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/ppyolo/)
F
Feng Ni 已提交
61 62 63

### TTFNet

W
wangguanzhong 已提交
64
请参考[TTFNet](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/ttfnet/)
S
shangliang Xu 已提交
65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80

### Group Normalization

请参考[Group Normalization](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/gn/)

### Deformable ConvNets v2

请参考[Deformable ConvNets v2](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/dcn/)

### HRNets

请参考[HRNets](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/hrnet/)

### Res2Net

请参考[Res2Net](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/res2net/)
81

G
Guanghua Yu 已提交
82 83 84 85 86 87 88 89
### GFL

请参考[GFL](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/gfl)

### PicoDet

请参考[PicoDet](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/picodet)

90 91 92 93 94 95

## 旋转框检测

### S2ANet

请参考[S2ANet](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/dota/)
W
wangguanzhong 已提交
96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123

## 关键点检测

### PP-TinyPose

请参考[PP-TinyPose](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/keypoint/tiny_pose)

## HRNet

请参考[HRNet](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/keypoint/hrnet)

## HigherHRNet

请参考[HigherHRNet](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/keypoint/higherhrnet)

## 多目标跟踪

### DeepSort

请参考[DeepSort](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/mot/deepsort)

### JDE

请参考[JDE](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/mot/jde)

### FairMOT

请参考[FairMOT](https://github.com/PaddlePaddle/PaddleDetection/tree/develop/configs/mot/fairmot)