diff --git a/docs/zh_CN/tutorials/getting_started_retrieval.md b/docs/zh_CN/tutorials/getting_started_retrieval.md index 02bd446d6300a2732e51c121de01b0414ce4a594..69329f5d8255c860e42c9368236cd47fbc3dfe75 100644 --- a/docs/zh_CN/tutorials/getting_started_retrieval.md +++ b/docs/zh_CN/tutorials/getting_started_retrieval.md @@ -25,11 +25,10 @@ PaddleClas目前支持的训练/评估环境如下: ``` python tools/train.py \ -c configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \ - -o Global.pretrained_model="" \ -o Global.use_gpu=True ``` -其中,`-c`用于指定配置文件的路径,`-o`用于指定需要修改或者添加的参数,其中`-o pretrained_model=""`表示不使用预训练模型,`-o use_gpu=True`表示使用GPU进行训练。如果希望使用CPU进行训练,则需要将`use_gpu`设置为`False`。 +其中,`-c`用于指定配置文件的路径,`-o`用于指定需要修改或者添加的参数,其中`-o use_gpu=True`表示使用GPU进行训练。如果希望使用CPU进行训练,则需要将`use_gpu`设置为`False`。 更详细的训练配置,也可以直接修改模型对应的配置文件。具体配置参数参考[配置文档](config.md)。 @@ -43,7 +42,6 @@ python tools/train.py \ python tools/train.py \ -c configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \ -o Arch.Backbone.pretrained=True - -o Global.use_gpu=True ``` 其中`-o Arch.Backbone.pretrained`用于设置是否加载预训练模型;为True时,会自动下载预训练模型,并加载。 @@ -58,15 +56,13 @@ python tools/train.py \ -c configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \ -o Global.checkpoints="./output/RecModel/ppcls_epoch_5" \ -o Global.last_epoch=5 \ - -o Global.use_gpu=True ``` - 其中配置文件不需要做任何修改,只需要在继续训练时设置`Global.checkpoints`参数即可,表示加载的断点权重文件路径,使用该参数会同时加载保存的断点权重和学习率、优化器等信息。 **注意**: * 参数`-o Global.last_epoch=5`表示将上一次训练轮次数记为`5`,即本次训练轮次数从`6`开始计算,该值默认为-1,表示本次训练轮次数从`0`开始计算。 -* `-o checkpoints`参数无需包含断点权重文件的后缀名,上述训练命令会在训练过程中生成如下所示的断点权重文件,若想从断点`5`继续训练,则`checkpoints`参数只需设置为`"./output/RecModel/ppcls_epoch_5"`,PaddleClas会自动补充后缀名。 +* `-o Global.checkpoints`参数无需包含断点权重文件的后缀名,上述训练命令会在训练过程中生成如下所示的断点权重文件,若想从断点`5`继续训练,则`checkpoints`参数只需设置为`"./output/RecModel/ppcls_epoch_5"`,PaddleClas会自动补充后缀名。 ### 1.4 模型评估 @@ -78,7 +74,6 @@ python tools/eval.py \ -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \ -o Global.pretrained_model="./output/RecModel/best_model"\ ``` - 上述命令将使用`./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml`作为配置文件,对上述训练得到的模型`./output/RecModel/best_model`进行评估。你也可以通过更改配置文件中的参数来设置评估,也可以通过`-o`参数更新配置,如上所示。 @@ -101,20 +96,6 @@ python -m paddle.distributed.launch \ -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml ``` -其中,`-c`用于指定配置文件的路径,可通过配置文件修改相关训练配置信息,也可以通过添加`-o`参数来更新配置: - -```bash -python -m paddle.distributed.launch \ - --gpus="0,1,2,3" \ - tools/train.py \ - -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \ - -o Global.pretrained_model="" \ - -o Global.use_gpu=True -``` -`-o`用于指定需要修改或者添加的参数,其中`-o pretrained_model=""`表示不使用预训练模型,`-o use_gpu=True`表示使用GPU进行训练。 - -输出日志信息的格式同上,详见[1.1 模型训练](#1.1)。 - ### 2.2 模型微调 根据自己的数据集配置好配置文件之后,可以加载预训练模型进行微调,如下所示。 @@ -144,7 +125,6 @@ python -m paddle.distributed.launch \ -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \ -o Global.checkpoints="./output/RecModel/ppcls_epoch_5" \ -o Global.last_epoch=5 \ - -o Global.use_gpu=True ``` 其中配置文件不需要做任何修改,只需要在训练时设置`checkpoints`参数与`last_epoch`参数即可,该参数表示加载的断点权重文件路径,使用该参数会同时加载保存的模型参数权重和学习率、优化器等信息,详见[1.3 模型恢复训练](#1.3)。 @@ -155,7 +135,9 @@ python -m paddle.distributed.launch \ 可以通过以下命令进行模型评估。 ```bash -python tools/eval.py \ +python. -m paddle.distributed.launch \ + --gpus="0,1,2,3" \ + tools/eval.py \ -c ./configs/quick_start/ResNet50_vd_finetune_retrieval.yaml \ -o Global.pretrained_model="./output/RecModel/best_model"\ ``` @@ -175,7 +157,7 @@ python tools/export_model.py \ --Global.save_inference_dir ./inference \ ``` -其中,`--pretrained_model`用于指定模型文件路径,该路径仍无需包含模型文件后缀名(如[1.3 模型恢复训练](#1.3)),`--output_path`用于指定转换后模型的存储路径。 +其中,`--pretrained_model`用于指定模型文件路径,该路径仍无需包含模型文件后缀名(如[1.3 模型恢复训练](#1.3)),`--save_inference_dir`用于指定转换后模型的存储路径。 **注意**: 1. `--save_inference_dir`表示输出的inference模型文件夹路径,若`--save_inference_dir=./inference`,则会在`inference`文件夹下生成`inference.pdiparams`、`inference.pdmodel`和`inference.pdiparams.info`文件。 @@ -184,6 +166,7 @@ python tools/export_model.py \ ### 3.2 构建底库 通过检索方式来进行图像识别,需要构建底库。底库构建方式如下: ```bash +cd deploy python python/build_gallery.py -c configs/build_flowers.yaml \ -o Global.rec_inference_model_dir "../inference" \