diff --git a/doc/doc_ch/inference.md b/doc/doc_ch/inference.md index 0b082c568dbc609975dd406df03cf035ecf80277..f0f7401538a9f8940f671fdcc170aca6c003040d 100755 --- a/doc/doc_ch/inference.md +++ b/doc/doc_ch/inference.md @@ -13,7 +13,6 @@ inference 模型(`paddle.jit.save`保存的模型) - [检测模型转inference模型](#检测模型转inference模型) - [识别模型转inference模型](#识别模型转inference模型) - [方向分类模型转inference模型](#方向分类模型转inference模型) - - [端到端模型转inference模型](#端到端模型转inference模型) - [二、文本检测模型推理](#文本检测模型推理) - [1. 超轻量中文检测模型推理](#超轻量中文检测模型推理) @@ -119,32 +118,6 @@ python3 tools/export_model.py -c configs/cls/cls_mv3.yml -o Global.pretrained_mo ├── inference.pdiparams.info # 分类inference模型的参数信息,可忽略 └── inference.pdmodel # 分类inference模型的program文件 ``` - -### 端到端模型转inference模型 - -下载端到端模型: -``` -wget -P ./ch_lite/ https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppocr_mobile_v2.0_cls_train.tar && tar xf ./ch_lite/ch_ppocr_mobile_v2.0_cls_train.tar -C ./ch_lite/ -``` - -端到端模型转inference模型与检测的方式相同,如下: -``` -# -c 后面设置训练算法的yml配置文件 -# -o 配置可选参数 -# Global.pretrained_model 参数设置待转换的训练模型地址,不用添加文件后缀 .pdmodel,.pdopt或.pdparams。 -# Global.load_static_weights 参数需要设置为 False。 -# Global.save_inference_dir参数设置转换的模型将保存的地址。 - -python3 tools/export_model.py -c configs/e2e/e2e_r50_vd_pg.yml -o Global.pretrained_model=./ch_lite/ch_ppocr_mobile_v2.0_cls_train/best_accuracy Global.load_static_weights=False Global.save_inference_dir=./inference/e2e/ -``` - -转换成功后,在目录下有三个文件: -``` -/inference/e2e/ - ├── inference.pdiparams # 分类inference模型的参数文件 - ├── inference.pdiparams.info # 分类inference模型的参数信息,可忽略 - └── inference.pdmodel # 分类inference模型的program文件 -``` ## 二、文本检测模型推理