getting_started_retrieval.md 7.1 KB
Newer Older
1
# 开始使用
B
Bin Lu 已提交
2
## 注意:  本文主要介绍基于检索方式的识别
3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
---
请参考[安装指南](./install.md)配置运行环境,并根据[快速开始](./quick_start_new_user.md)文档准备flower102数据集,本章节下面所有的实验均以flower102数据集为例。

PaddleClas目前支持的训练/评估环境如下:
```shell
└── CPU/单卡GPU
    ├── Linux
    └── Windows

└── 多卡GPU
    └── Linux
```

## 1. 基于CPU/单卡GPU上的训练与评估

在基于CPU/单卡GPU上训练与评估,推荐使用`tools/train.py``tools/eval.py`脚本。关于Linux平台多卡GPU环境下的训练与评估,请参考[2. 基于Linux+GPU的模型训练与评估](#2)

<a name="1.1"></a>
### 1.1 模型训练

准备好配置文件之后,可以使用下面的方式启动训练。

```
python tools/train.py \
B
Bin Lu 已提交
27
    -c ppcls/configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \
B
Bin Lu 已提交
28
    -o Global.use_gpu=True
29 30
```

B
Bin Lu 已提交
31
其中,`-c`用于指定配置文件的路径,`-o`用于指定需要修改或者添加的参数,其中`-o use_gpu=True`表示使用GPU进行训练。如果希望使用CPU进行训练,则需要将`use_gpu`设置为`False`
32 33 34 35 36 37 38 39 40 41 42

更详细的训练配置,也可以直接修改模型对应的配置文件。具体配置参数参考[配置文档](config.md)

训练期间也可以通过VisualDL实时观察loss变化,详见[VisualDL](../extension/VisualDL.md)

### 1.2 模型微调

根据自己的数据集路径设置好配置文件后,可以通过加载预训练模型的方式进行微调,如下所示。

```
python tools/train.py \
B
Bin Lu 已提交
43
    -c ppcls/configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \
B
Bin Lu 已提交
44
    -o Arch.Backbone.pretrained=True
45 46
```

B
Bin Lu 已提交
47
其中`-o Arch.Backbone.pretrained`用于设置是否加载预训练模型;为True时,会自动下载预训练模型,并加载。
48 49 50 51 52 53 54 55

<a name="1.3"></a>
### 1.3 模型恢复训练

如果训练任务因为其他原因被终止,也可以加载断点权重文件,继续训练:

```
python tools/train.py \
B
Bin Lu 已提交
56 57
    -c ppcls/configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \
    -o Global.checkpoints="./output/RecModel/epoch_5" \
58
```
B
Bin Lu 已提交
59
只需要在继续训练时设置`Global.checkpoints`参数即可,表示加载的断点权重文件路径,使用该参数会同时加载保存的断点权重和学习率、优化器等信息。
60 61 62 63 64 65 66 67

<a name="1.4"></a>
### 1.4 模型评估

可以通过以下命令进行模型评估。

```bash
python tools/eval.py \
B
Bin Lu 已提交
68
    -c ppcls/configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \
B
Bin Lu 已提交
69
    -o Global.pretrained_model="./output/RecModel/best_model"\
70
```
B
Bin Lu 已提交
71
其中`-o Global.pretrained_model`用于设置需要进行评估的模型的路径
72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89

<a name="2"></a>
## 2. 基于Linux+GPU的模型训练与评估

如果机器环境为Linux+GPU,那么推荐使用`paddle.distributed.launch`启动模型训练脚本(`tools/train.py`)、评估脚本(`tools/eval.py`),可以更方便地启动多卡训练与评估。

### 2.1 模型训练

参考如下方式启动模型训练,`paddle.distributed.launch`通过设置`gpus`指定GPU运行卡号:

```bash
# PaddleClas通过launch方式启动多卡多进程训练

export CUDA_VISIBLE_DEVICES=0,1,2,3

python -m paddle.distributed.launch \
    --gpus="0,1,2,3" \
    tools/train.py \
B
Bin Lu 已提交
90
        -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml
91 92 93 94 95 96 97 98 99 100 101 102
```

### 2.2 模型微调

根据自己的数据集配置好配置文件之后,可以加载预训练模型进行微调,如下所示。

```
export CUDA_VISIBLE_DEVICES=0,1,2,3

python -m paddle.distributed.launch \
    --gpus="0,1,2,3" \
    tools/train.py \
B
Bin Lu 已提交
103
        -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \
B
Bin Lu 已提交
104
        -o Arch.Backbone.pretrained=True
105 106 107 108 109 110 111 112 113 114 115 116
```

### 2.3 模型恢复训练

如果训练任务因为其他原因被终止,也可以加载断点权重文件继续训练。

```
export CUDA_VISIBLE_DEVICES=0,1,2,3

python -m paddle.distributed.launch \
    --gpus="0,1,2,3" \
    tools/train.py \
B
Bin Lu 已提交
117
        -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \
B
Bin Lu 已提交
118
        -o Global.checkpoints="./output/RecModel/ppcls_epoch_5" \
119 120 121 122 123 124 125 126 127 128
```

其中配置文件不需要做任何修改,只需要在训练时设置`checkpoints`参数与`last_epoch`参数即可,该参数表示加载的断点权重文件路径,使用该参数会同时加载保存的模型参数权重和学习率、优化器等信息,详见[1.3 模型恢复训练](#1.3)


### 2.4 模型评估

可以通过以下命令进行模型评估。

```bash
B
Bin Lu 已提交
129 130 131
python. -m paddle.distributed.launch \ 
    --gpus="0,1,2,3" \
    tools/eval.py \
B
Bin Lu 已提交
132
    -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \
B
Bin Lu 已提交
133
    -o Global.pretrained_model="./output/RecModel/best_model"\
134 135 136 137 138
```

参数说明详见[1.4 模型评估](#1.4)

<a name="model_inference"></a>
B
Bin Lu 已提交
139 140
## 3. 使用inference模型进行模型推理
### 3.1 导出推理模型
141 142 143 144 145 146

通过导出inference模型,PaddlePaddle支持使用预测引擎进行预测推理。接下来介绍如何用预测引擎进行推理:
首先,对训练好的模型进行转换:

```bash
python tools/export_model.py \
B
Bin Lu 已提交
147 148
    --Global.pretrained_model ./output/RecModel/best_model \
    --Global.save_inference_dir ./inference \
149 150
```

B
Bin Lu 已提交
151
其中,`--pretrained_model`用于指定模型文件路径,该路径仍无需包含模型文件后缀名(如[1.3 模型恢复训练](#1.3)),`--save_inference_dir`用于指定转换后模型的存储路径。
152 153

**注意**
B
Bin Lu 已提交
154
1. `--save_inference_dir`表示输出的inference模型文件夹路径,若`--save_inference_dir=./inference`,则会在`inference`文件夹下生成`inference.pdiparams``inference.pdmodel``inference.pdiparams.info`文件。
155 156
2. 可以通过设置参数`--img_size`指定模型输入图像的`shape`,默认为`224`,表示图像尺寸为`224*224`,请根据实际情况修改。

B
Bin Lu 已提交
157
### 3.2 构建底库
B
Bin Lu 已提交
158 159
通过检索方式来进行图像识别,需要构建底库。底库构建方式如下:
```bash
B
Bin Lu 已提交
160
cd deploy
B
Bin Lu 已提交
161 162 163 164 165 166 167 168 169 170 171 172
python python/build_gallery.py 
       -c configs/build_flowers.yaml \
       -o Global.rec_inference_model_dir "../inference" \
       -o IndexProcess.index_path "../dataset/index" \
       -o IndexProcess.image_root: "../dataset" \
       -o IndexProcess.data_file: "../dataset/train_list.txt" 
```
其中
+ `Global.rec_inference_model_dir`:3.1生成的推理模型的路径
+ `IndexProcess.index_path`:gallery库index的路径
+ `IndexProcess.image_root`:gallery库图片的根目录
+ `IndexProcess.data_file`:gallery库图片的文件列表
B
Bin Lu 已提交
173 174 175 176

### 3.3 推理预测

通过3.1生成模型结构文件(`inference.pdmodel`)和模型权重文件(`inference.pdiparams`),通过3.2构建好底库, 然后可以使用预测引擎进行推理:
177 178

```bash
B
Bin Lu 已提交
179
python python/predict_rec.py \
B
Bin Lu 已提交
180 181 182 183 184
    -c configs/inference_flowers.yaml \
    -o Global.infer_imgs 图片路径 \
    -o Global.rec_inference_model_dir "./inference"
    -o Global.use_gpu=True \
    -o Global.use_tensorrt=False
185 186
```
其中:
B
Bin Lu 已提交
187 188 189
+ `Global.infer_imgs`:待预测的图片文件路径,如 `./test.jpeg`
+ `Global.rec_inference_model_dir`:模型结构文件路径,如 `./inference/`
+ `Global.use_tensorrt`:是否使用 TesorRT 预测引擎,默认值:`True`
B
Bin Lu 已提交
190
+ `Global.use_gpu`:是否使用 GPU 预测,默认值:`True`