GETTING_STARTED_cn.md 8.4 KB
Newer Older
K
Kaipeng Deng 已提交
1 2 3 4 5
# 开始

关于配置运行环境,请参考[安装指南](INSTALL_cn.md)


W
wangguanzhong 已提交
6
## 训练/评估/推断
K
Kaipeng Deng 已提交
7

W
wangguanzhong 已提交
8
PaddleDetection提供了训练/训练/评估三个功能的使用脚本,支持通过不同可选参数实现特定功能
K
Kaipeng Deng 已提交
9 10

```bash
W
wangguanzhong 已提交
11
# 设置PYTHONPATH路径
12
export PYTHONPATH=$PYTHONPATH:.
W
wangguanzhong 已提交
13
# GPU训练 支持单卡,多卡训练,通过CUDA_VISIBLE_DEVICES指定卡号
K
Kaipeng Deng 已提交
14 15
export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
python tools/train.py -c configs/faster_rcnn_r50_1x.yml
W
wangguanzhong 已提交
16 17 18 19 20
# GPU评估
export CUDA_VISIBLE_DEVICES=0
python tools/eval.py -c configs/faster_rcnn_r50_1x.yml
# 推断
python tools/infer.py -c configs/faster_rcnn_r50_1x.yml --infer_img=demo/000000570688.jpg
K
Kaipeng Deng 已提交
21 22
```

W
wangguanzhong 已提交
23
### 可选参数列表
24

W
wangguanzhong 已提交
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
以下列表可以通过`--help`查看

|         FLAG             |     支持脚本    |        用途        |      默认值       |         备注         |
| :----------------------: | :------------: | :---------------: | :--------------: | :-----------------: |
|          -c              |      ALL       |  指定配置文件  |  None  |  **完整配置说明请参考[配置案例](config_example)** |
|          -o              |      ALL       |  设置配置文件里的参数内容  |  None  |  使用-o配置相较于-c选择的配置文件具有更高的优先级。例如:`-o use_gpu=False max_iter=10000`  |  
|   -r/--resume_checkpoint |     train      |  从某一检查点恢复训练  |  None  |  `-r output/faster_rcnn_r50_1x/10000`  |
|        --eval            |     train      |  是否边训练边测试  |  False  |    |
|      --output_eval       |     train/eval |  编辑评测保存json路径  |  当前路径  |  `--output_eval ./json_result`  |
|   -d/--dataset_dir       |   train/eval   |  数据集路径, 同配置文件里的dataset_dir  |  None  |  `-d dataset/coco`  |
|       --fp16             |     train      |  是否使用混合精度训练模式  |  False  |  需使用GPU训练  |
|       --loss_scale       |     train      |  设置混合精度训练模式中损失值的缩放比例  |  8.0  |  需先开启`--fp16`后使用  |  
|       --json_eval        |       eval     |  是否通过已存在的bbox.json或者mask.json进行评估  |  False  |  json文件路径在`--output_eval`中设置  |
|       --output_dir       |      infer     |  输出推断后可视化文件  |  `./output`  |  `--output_dir output`  |
|    --draw_threshold      |      infer     |  可视化时分数阈值  |  0.5  |  `--draw_threshold 0.7`  |
|  --save\_inference_model |      infer      |  是否保存预测模型  |  False  |  预测模型保存路径为`--output_dir`设置的路径  |
|      --infer_dir         |       infer     |  用于推断的图片文件夹路径  |  None  |    |
|      --infer_img         |       infer     |  用于推断的图片路径  |  None  |  相较于`--infer_dir`具有更高优先级  |
|        --use_tb          |   train/infer   |  是否使用[tb-paddle](https://github.com/linshuliang/tb-paddle)记录数据,进而在TensorBoard中显示  |  False  |      |
|        --tb\_log_dir     |   train/infer   |  指定 tb-paddle 记录数据的存储路径  |  train:`tb_log_dir/scalar` infer: `tb_log_dir/image`  |     |
45 46


W
wangguanzhong 已提交
47
## 使用示例
48

W
wangguanzhong 已提交
49
### 模型训练
50 51

- 边训练边测试
52

W
wangguanzhong 已提交
53 54 55 56
  ```bash
  export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
  python -u tools/train.py -c configs/faster_rcnn_r50_1x.yml --eval -d dataset/coco
  ```
57

W
wangguanzhong 已提交
58
  在训练中交替执行评估, 评估在每个snapshot\_iter时开始。每次评估后还会评出最佳mAP模型保存到`best_model`文件夹下。
59

W
wangguanzhong 已提交
60
  如果验证集很大,测试将会比较耗时,建议减少评估次数,或训练完再进行评估。
61

62

63 64
- Fine-tune其他任务

W
wangguanzhong 已提交
65
  使用预训练模型fine-tune其他任务时,可采用如下两种方式:
66

W
wangguanzhong 已提交
67 68
  1. 在YAML配置文件中设置`finetune_exclude_pretrained_params`
  2. 在命令行中添加-o finetune\_exclude\_pretrained_params对预训练模型进行选择性加载。
69

W
wangguanzhong 已提交
70 71 72
  ```bash
  export CUDA_VISIBLE_DEVICES=0,1,2,3,4,5,6,7
  python -u tools/train.py -c configs/faster_rcnn_r50_1x.yml \
73
                         -o pretrain_weights=output/faster_rcnn_r50_1x/model_final/ \
W
wangguanzhong 已提交
74 75 76 77 78 79 80 81 82 83 84 85
                            finetune_exclude_pretrained_params=['cls_score','bbox_pred']
  ```

  详细说明请参考[Transfer Learning](TRANSFER_LEARNING_cn.md)

#### 提示

- `CUDA_VISIBLE_DEVICES` 参数可以指定不同的GPU。例如: `export CUDA_VISIBLE_DEVICES=0,1,2,3`. GPU计算规则可以参考 [FAQ](#faq)
- 若本地未找到数据集,将自动下载数据集并保存在`~/.cache/paddle/dataset`中。
- 预训练模型自动下载并保存在`〜/.cache/paddle/weights`中。
- 模型checkpoints默认保存在`output`中,可通过修改配置文件中save_dir进行配置。
- RCNN系列模型CPU训练在PaddlePaddle 1.5.1及以下版本暂不支持。
86

W
wangguanzhong 已提交
87
### 混合精度训练
88 89 90 91 92 93 94 95 96 97 98 99 100

通过设置 `--fp16` 命令行选项可以启用混合精度训练。目前混合精度训练已经在Faster-FPN, Mask-FPN 及 Yolov3 上进行验证,几乎没有精度损失(小于0.2 mAP)。

建议使用多进程方式来进一步加速混合精度训练。示例如下。

```bash
python -m paddle.distributed.launch --selected_gpus 0,1,2,3,4,5,6,7 tools/train.py --fp16 -c configs/faster_rcnn_r50_fpn_1x.yml
```

如果训练过程中loss出现`NaN`,请尝试调节`--loss_scale`选项数值,细节请参看混合精度训练相关的[Nvidia文档](https://docs.nvidia.com/deeplearning/sdk/mixed-precision-training/index.html#mptrain)

另外,请注意将配置文件中的 `norm_type``affine_channel` 改为 `bn`

K
Kaipeng Deng 已提交
101

W
wangguanzhong 已提交
102
### 模型评估
K
Kaipeng Deng 已提交
103

W
wangguanzhong 已提交
104
- 指定权重和数据集路径
105

W
wangguanzhong 已提交
106 107 108 109
  ```bash
  export CUDA_VISIBLE_DEVICES=0
  python -u tools/eval.py -c configs/faster_rcnn_r50_1x.yml \
                        -o weights=https://paddlemodels.bj.bcebos.com/object_detection/faster_rcnn_r50_1x.tar \
110
                        -d dataset/coco
W
wangguanzhong 已提交
111 112 113
  ```

  评估模型可以为本地路径,例如`output/faster_rcnn_r50_1x/model_final/`, 也可以为[MODEL_ZOO](MODEL_ZOO_cn.md)中给出的模型链接。
114 115

- 通过json文件评估
W
wangguanzhong 已提交
116 117 118 119

  ```bash
  export CUDA_VISIBLE_DEVICES=0
  python -u tools/eval.py -c configs/faster_rcnn_r50_1x.yml \
W
wangguanzhong 已提交
120
             --json_eval \
W
wangguanzhong 已提交
121 122
             --output_eval evaluation/
  ```
123

W
wangguanzhong 已提交
124
  json文件必须命名为bbox.json或者mask.json,放在`evaluation/`目录下。
125 126 127

#### 提示

K
Kaipeng Deng 已提交
128 129 130
- R-CNN和SSD模型目前暂不支持多GPU评估,将在后续版本支持


W
wangguanzhong 已提交
131
### 模型推断
132 133

- 设置输出路径 && 设置推断阈值
134

W
wangguanzhong 已提交
135 136 137
  ```bash
  export CUDA_VISIBLE_DEVICES=0
  python -u tools/infer.py -c configs/faster_rcnn_r50_1x.yml \
138 139
                      --infer_img=demo/000000570688.jpg \
                      --output_dir=infer_output/ \
140
                      --draw_threshold=0.5 \
141
                      -o weights=output/faster_rcnn_r50_1x/model_final \
W
wangguanzhong 已提交
142
  ```
143 144


W
wangguanzhong 已提交
145 146
  `--draw_threshold` 是个可选参数. 根据 [NMS](https://ieeexplore.ieee.org/document/1699659) 的计算,
  不同阈值会产生不同的结果。如果用户需要对自定义路径的模型进行推断,可以设置`-o weights`指定模型路径。
K
Kaipeng Deng 已提交
147 148 149

- 保存推断模型

W
wangguanzhong 已提交
150 151 152 153
  ```bash
  # GPU推断
  export CUDA_VISIBLE_DEVICES=0
  python -u tools/infer.py -c configs/faster_rcnn_r50_1x.yml --infer_img=demo/000000570688.jpg \
K
Kaipeng Deng 已提交
154
                      --save_inference_model
W
wangguanzhong 已提交
155
  ```
K
Kaipeng Deng 已提交
156

W
wangguanzhong 已提交
157
  通过设置`--save_inference_model`保存可供PaddlePaddle预测库加载的推断模型。
K
Kaipeng Deng 已提交
158 159 160 161 162


## FAQ

**Q:**  为什么我使用单GPU训练loss会出`NaN`? </br>
163 164
**A:**  默认学习率是适配多GPU训练(8x GPU),若使用单GPU训练,须对应调整学习率(例如,除以8)。
计算规则表如下所示,它们是等价的: </br>
165 166


167 168
| GPU数  | 学习率  | 最大轮数 | 变化节点       |
| :---------: | :------------: | :-------: | :--------------: |
169 170 171
| 2           | 0.0025         | 720000    | [480000, 640000] |
| 4           | 0.005          | 360000    | [240000, 320000] |
| 8           | 0.01           | 180000    | [120000, 160000] |
K
Kaipeng Deng 已提交
172 173 174 175 176 177


**Q:**  如何减少GPU显存使用率? </br>
**A:**  可通过设置环境变量`FLAGS_conv_workspace_size_limit`为较小的值来减少显存消耗,并且不
会影响训练速度。以Mask-RCNN(R50)为例,设置`export FLAGS_conv_workspace_size_limit = 512`
batch size可以达到每GPU 4 (Tesla V100 16GB)。
178 179 180 181 182


**Q:**  如何修改数据预处理? </br>
**A:**  可在配置文件中设置 `sample_transform`。注意需要在配置文件中加入**完整预处理**
例如RCNN模型中`DecodeImage`, `NormalizeImage` and `Permute`。更多详细描述请参考[配置案例](config_example)