getting_started.md 10.9 KB
Newer Older
W
WuHaobo 已提交
1 2
# 开始使用
---
littletomatodonkey's avatar
littletomatodonkey 已提交
3
请参考[安装指南](./install.md)配置运行环境,并根据[快速开始](./quick_start_new_user.md)文档准备flower102数据集,本章节下面所有的实验均以flower102数据集为例。
W
WuHaobo 已提交
4

G
gaotingquan 已提交
5 6 7 8 9
PaddleClas目前支持的训练/评估环境如下:
```shell
└── CPU/单卡GPU
    ├── Linux
    └── Windows
W
WuHaobo 已提交
10

G
gaotingquan 已提交
11 12 13 14 15 16 17
└── 多卡GPU
    └── Linux
```

## 1. 基于CPU/单卡GPU上的训练与评估

在基于CPU/单卡GPU上训练与评估,推荐使用`tools/train.py``tools/eval.py`脚本。关于Linux平台多卡GPU环境下的训练与评估,请参考[2. 基于Linux+GPU的模型训练与评估](#2)
18

G
gaotingquan 已提交
19
<a name="1.1"></a>
20 21 22 23 24
### 1.1 模型训练

准备好配置文件之后,可以使用下面的方式启动训练。

```
25 26 27 28
python3 tools/train.py \
    -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
    -o Arch.pretrained=False \
    -o Global.device=gpu
29 30
```

31
其中,`-c`用于指定配置文件的路径,`-o`用于指定需要修改或者添加的参数,其中`-o Arch.pretrained=False`表示不使用预训练模型,`-o Global.device=gpu`表示使用GPU进行训练。如果希望使用CPU进行训练,则需要将`Global.device`设置为`cpu`
32

G
gaotingquan 已提交
33
更详细的训练配置,也可以直接修改模型对应的配置文件。具体配置参数参考[配置文档](config.md)
34

G
gaotingquan 已提交
35
运行上述命令,可以看到输出日志,示例如下:
36

G
gaotingquan 已提交
37
* 如果在训练中使用了mixup或者cutmix的数据增广方式,那么日志中将不会打印top-1与top-k(默认为5)信息:
38
    ```
G
gaotingquan 已提交
39
    ...
40
    [Train][Epoch 3/20][Avg]CELoss: 6.46287, loss: 6.46287
G
gaotingquan 已提交
41
    ...
42
    [Eval][Epoch 3][Avg]CELoss: 5.94309, loss: 5.94309, top1: 0.01961, top5: 0.07941
G
gaotingquan 已提交
43
    ...
44 45
    ```

G
gaotingquan 已提交
46
* 如果训练过程中没有使用mixup或者cutmix的数据增广,那么除了上述信息外,日志中也会打印出top-1与top-k(默认为5)的信息:
47 48

    ```
G
gaotingquan 已提交
49
    ...
50
    [Train][Epoch 3/20][Avg]CELoss: 6.12570, loss: 6.12570, top1: 0.01765, top5: 0.06961
G
gaotingquan 已提交
51
    ...
52
    [Eval][Epoch 3][Avg]CELoss: 5.40727, loss: 5.40727, top1: 0.07549, top5: 0.20980
G
gaotingquan 已提交
53
    ...
54 55
    ```

T
Tingquan Gao 已提交
56
训练期间也可以通过VisualDL实时观察loss变化,详见[VisualDL](../extension/VisualDL.md)
W
WuHaobo 已提交
57

58
### 1.2 模型微调
W
WuHaobo 已提交
59

G
gaotingquan 已提交
60
根据自己的数据集路径设置好配置文件后,可以通过加载预训练模型的方式进行微调,如下所示。
61 62

```
63 64 65 66
python3 tools/train.py \
    -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
    -o Arch.pretrained=True \
    -o Global.device=gpu
67 68
```

69
其中`Arch.pretrained`设置为`True`表示加载ImageNet的预训练模型,此外,`Arch.pretrained`也可以指定具体的模型权重文件的地址,使用时需要换成自己的预训练模型权重文件的路径。
G
gaotingquan 已提交
70 71

我们也提供了大量基于`ImageNet-1k`数据集的预训练模型,模型列表及下载地址详见[模型库概览](../models/models_intro.md)
72

G
gaotingquan 已提交
73
<a name="1.3"></a>
74 75
### 1.3 模型恢复训练

G
gaotingquan 已提交
76
如果训练任务因为其他原因被终止,也可以加载断点权重文件,继续训练:
77 78

```
79 80 81 82
python3 tools/train.py \
    -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
    -o Global.checkpoints="./output/MobileNetV3_large_x1_0/epoch_5" \
    -o Global.device=gpu
83 84
```

G
gaotingquan 已提交
85 86 87
其中配置文件不需要做任何修改,只需要在继续训练时设置`checkpoints`参数即可,表示加载的断点权重文件路径,使用该参数会同时加载保存的断点权重和学习率、优化器等信息。

**注意**
88 89

* `-o Global.checkpoints`参数无需包含断点权重文件的后缀名,上述训练命令会在训练过程中生成如下所示的断点权重文件,若想从断点`5`继续训练,则`Global.checkpoints`参数只需设置为`"../output/MobileNetV3_large_x1_0/epoch_5"`,PaddleClas会自动补充后缀名。
G
gaotingquan 已提交
90 91

    ```shell
92 93 94 95 96 97 98 99
    output
    ├── MobileNetV3_large_x1_0
    │   ├── best_model.pdopt
    │   ├── best_model.pdparams
    │   ├── best_model.pdstates
    │   ├── epoch_1.pdopt
    │   ├── epoch_1.pdparams
    │   ├── epoch_1.pdstates
G
gaotingquan 已提交
100 101 102 103
        .
        .
        .
    ```
104

G
gaotingquan 已提交
105
<a name="1.4"></a>
106 107
### 1.4 模型评估

G
gaotingquan 已提交
108
可以通过以下命令进行模型评估。
109 110

```bash
111 112 113
python3 tools/eval.py \
    -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
    -o Global.pretrained_model=./output/MobileNetV3_large_x1_0/best_model
114 115
```

116
上述命令将使用`./configs/quick_start/MobileNetV3_large_x1_0.yaml`作为配置文件,对上述训练得到的模型`./output/MobileNetV3_large_x1_0/best_model`进行评估。你也可以通过更改配置文件中的参数来设置评估,也可以通过`-o`参数更新配置,如上所示。
117

T
Tingquan Gao 已提交
118
可配置的部分评估参数说明如下:
119 120
* `Arch.name`:模型名称
* `Global.pretrained_model`:待评估的模型文件路径
T
Tingquan Gao 已提交
121

122
**注意:** 在加载待评估模型时,需要指定模型文件的路径,但无需包含文件后缀名,PaddleClas会自动补齐`.pdparams`的后缀,如[1.3 模型恢复训练](#1.3)
123

G
gaotingquan 已提交
124
<a name="2"></a>
125 126
## 2. 基于Linux+GPU的模型训练与评估

G
gaotingquan 已提交
127
如果机器环境为Linux+GPU,那么推荐使用`paddle.distributed.launch`启动模型训练脚本(`tools/train.py`)、评估脚本(`tools/eval.py`),可以更方便地启动多卡训练与评估。
W
WuHaobo 已提交
128 129

### 2.1 模型训练
littletomatodonkey's avatar
littletomatodonkey 已提交
130

L
littletomatodonkey 已提交
131
参考如下方式启动模型训练,`paddle.distributed.launch`通过设置`gpus`指定GPU运行卡号:
W
wangshipeng01 已提交
132

W
WuHaobo 已提交
133 134
```bash
# PaddleClas通过launch方式启动多卡多进程训练
G
gaotingquan 已提交
135 136

export CUDA_VISIBLE_DEVICES=0,1,2,3
W
WuHaobo 已提交
137

138
python3 -m paddle.distributed.launch \
L
littletomatodonkey 已提交
139
    --gpus="0,1,2,3" \
W
WuHaobo 已提交
140
    tools/train.py \
141
        -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml
W
WuHaobo 已提交
142 143
```

G
gaotingquan 已提交
144
输出日志信息的格式同上,详见[1.1 模型训练](#1.1)
145 146 147

### 2.2 模型微调

G
gaotingquan 已提交
148
根据自己的数据集配置好配置文件之后,可以加载预训练模型进行微调,如下所示。
W
WuHaobo 已提交
149 150

```
G
gaotingquan 已提交
151 152
export CUDA_VISIBLE_DEVICES=0,1,2,3

153
python3 -m paddle.distributed.launch \
L
littletomatodonkey 已提交
154
    --gpus="0,1,2,3" \
155
    tools/train.py \
156 157
        -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
        -o Arch.pretrained=True
W
WuHaobo 已提交
158 159
```

160
其中`Arch.pretrained``True``False`,当然也可以设置加载预训练权重文件的路径,使用时需要换成自己的预训练模型权重文件路径,也可以直接在配置文件中修改该路径。
W
fix  
wangshipeng01 已提交
161

littletomatodonkey's avatar
littletomatodonkey 已提交
162
30分钟玩转PaddleClas[尝鲜版](./quick_start_new_user.md)[进阶版](./quick_start_professional.md)中包含大量模型微调的示例,可以参考该章节在特定的数据集上进行模型微调。
S
shippingwang 已提交
163

164

L
littletomatodonkey 已提交
165
<a name="model_resume"></a>
166 167
### 2.3 模型恢复训练

G
gaotingquan 已提交
168
如果训练任务因为其他原因被终止,也可以加载断点权重文件继续训练。
S
shippingwang 已提交
169 170

```
G
gaotingquan 已提交
171 172
export CUDA_VISIBLE_DEVICES=0,1,2,3

173
python3 -m paddle.distributed.launch \
L
littletomatodonkey 已提交
174
    --gpus="0,1,2,3" \
175
    tools/train.py \
176 177 178 179
        -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
        -o Global.checkpoints="./output/MobileNetV3_large_x1_0/epoch_5" \
        -o Optimizer.lr.last_epoch=5 \
        -o Global.device=gpu
180
```
S
shippingwang 已提交
181

182
其中配置文件不需要做任何修改,只需要在训练时设置`Global.checkpoints`参数与`Optimizer.lr.last_epoch`参数即可,该参数表示加载的断点权重文件路径,使用该参数会同时加载保存的模型参数权重和学习率、优化器等信息,详见[1.3 模型恢复训练](#1.3)
W
fix  
wangshipeng01 已提交
183 184


185
### 2.4 模型评估
W
fix  
wangshipeng01 已提交
186

G
gaotingquan 已提交
187
可以通过以下命令进行模型评估。
W
WuHaobo 已提交
188 189

```bash
190 191 192 193 194
export CUDA_VISIBLE_DEVICES=0,1,2,3
python3 -m paddle.distributed.launch \
    tools/eval.py \
        -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
        -o Global.pretrained_model=./output/MobileNetV3_large_x1_0/best_model
W
WuHaobo 已提交
195
```
196

G
gaotingquan 已提交
197
参数说明详见[1.4 模型评估](#1.4)
S
fix  
shippingwang 已提交
198

littletomatodonkey's avatar
littletomatodonkey 已提交
199

L
littletomatodonkey 已提交
200
<a name="model_infer"></a>
littletomatodonkey's avatar
littletomatodonkey 已提交
201
## 3. 使用预训练模型进行模型预测
S
fix  
shippingwang 已提交
202

littletomatodonkey's avatar
littletomatodonkey 已提交
203 204 205
模型训练完成之后,可以加载训练得到的预训练模型,进行模型预测。在模型库的 `tools/infer/infer.py` 中提供了完整的示例,只需执行下述命令即可完成模型预测:

```python
206 207 208 209 210

python3 tools/infer.py \
    -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
    -o Infer.infer_imgs=dataset/flowers102/jpg/image_00001.jpg \
    -o Global.pretrained_model=./output/MobileNetV3_large_x1_0/best_model
littletomatodonkey's avatar
littletomatodonkey 已提交
211 212 213
```

参数说明:
214 215
+ `Infer.infer_imgs`:待预测的图片文件路径或者批量预测时的图片文件夹。
+ `Global.pretrained_model`:模型权重文件路径,如 `./output/MobileNetV3_large_x1_0/best_model`
T
Tingquan Gao 已提交
216

littletomatodonkey's avatar
littletomatodonkey 已提交
217

L
littletomatodonkey 已提交
218
<a name="model_inference"></a>
L
littletomatodonkey 已提交
219
## 4. 使用inference模型进行模型推理
littletomatodonkey's avatar
littletomatodonkey 已提交
220 221

通过导出inference模型,PaddlePaddle支持使用预测引擎进行预测推理。接下来介绍如何用预测引擎进行推理:
C
cuicheng01 已提交
222
首先,对训练好的模型进行转换:
littletomatodonkey's avatar
littletomatodonkey 已提交
223

S
shippingwang 已提交
224
```bash
225 226 227
python3 tools/export_model.py \
    -c ./ppcls/configs/quick_start/MobileNetV3_large_x1_0.yaml \
    -o Global.pretrained_model=output/MobileNetV3_large_x1_0/best_model
G
gaotingquan 已提交
228 229
```

S
fix  
shippingwang 已提交
230

231 232
其中,`Global.pretrained_model`用于指定模型文件路径,该路径仍无需包含模型文件后缀名(如[1.3 模型恢复训练](#1.3))。

W
Wei Shengyu 已提交
233 234 235 236
**注意**
1. `--output_path`表示输出的inference模型文件夹路径,若`--output_path=./inference`,则会在`inference`文件夹下生成`inference.pdiparams``inference.pdmodel``inference.pdiparams.info`文件。
2. 可以通过设置参数`--img_size`指定模型输入图像的`shape`,默认为`224`,表示图像尺寸为`224*224`,请根据实际情况修改;如果使用`Transformer`系列模型,如`DeiT_***_384`, `ViT_***_384`等,请注意模型的输入数据尺寸,需要设置参数`img_size=384`

G
gaotingquan 已提交
237

L
littletomatodonkey 已提交
238
上述命令将生成模型结构文件(`inference.pdmodel`)和模型权重文件(`inference.pdiparams`),然后可以使用预测引擎进行推理:
G
gaotingquan 已提交
239

240 241
进入deploy目录下:

S
fix  
shippingwang 已提交
242
```bash
243
cd deploy
S
fix  
shippingwang 已提交
244
```
245

246
执行命令进行预测,由于默认class_id_map_file是ImageNet数据集的映射文件,所以此处需要置None。
T
Tingquan Gao 已提交
247

248 249 250 251 252 253
```bash
python3 python/predict_cls.py \
    -c configs/inference_cls.yaml \
    -o Global.infer_imgs=../dataset/flowers102/jpg/image_00001.jpg \
    -o Global.inference_model_dir=../inference/ \
    -o PostProcess.class_id_map_file=None
W
Wei Shengyu 已提交
254

G
gaotingquan 已提交
255

256 257 258 259 260 261 262 263
其中:
+ `Global.infer_imgs`:待预测的图片文件路径。
+ `Global.inference_model_dir`:inference模型结构文件路径,如 `../inference/inference.pdmodel`
+ `Global.use_tensorrt`:是否使用 TesorRT 预测引擎,默认值:`False`
+ `Global.use_gpu`:是否使用 GPU 预测,默认值:`True`
+ `Global.enable_mkldnn`:是否启用`MKL-DNN`加速,默认为`False`。注意`enable_mkldnn``use_gpu`同时为`True`时,将忽略`enable_mkldnn`,而使用GPU运行。
+ `Global.use_fp16`:是否启用`FP16`,默认为`False`

264

W
Wei Shengyu 已提交
265 266
**注意**: 如果使用`Transformer`系列模型,如`DeiT_***_384`, `ViT_***_384`等,请注意模型的输入数据尺寸,需要设置参数`resize_short=384`, `resize=384`

267
* 如果你希望提升评测模型速度,使用gpu评测时,建议开启TensorRT加速预测,使用cpu评测时,建议开启MKL-DNN加速预测。