diff --git a/deploy/paddle2onnx/readme.md b/deploy/paddle2onnx/readme.md index 0350c27ed983dc1cf379c8efaedb521e1ae2e8c7..02c069b7ac69110b63c53cd88e6ab5a223174972 100644 --- a/deploy/paddle2onnx/readme.md +++ b/deploy/paddle2onnx/readme.md @@ -7,7 +7,7 @@ 需要准备 Paddle2ONNX 模型转化环境,和 ONNX 模型预测环境 ### Paddle2ONNX -paddle2onnx 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式,算子目前稳定支持导出 ONNX Opset 9~11,部分Paddle算子支持更低的ONNX Opset转换。 +Paddle2ONNX 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式,算子目前稳定支持导出 ONNX Opset 9~11,部分Paddle算子支持更低的ONNX Opset转换。 更多细节可参考 [Paddle2ONNX](https://github.com/PaddlePaddle/Paddle2ONNX/blob/develop/README_zh.md) - 安装 Paddle2ONNX @@ -20,6 +20,10 @@ python3.7 -m pip install paddle2onnx # 建议安装 1.4.0 版本,可根据环境更换版本号 python3.7 -m pip install onnxruntime==1.4.0 ``` + +## 2. 模型转换 + + - Paddle 模型下载 有两种方式获取Paddle静态图模型:在 [model_list](../../doc/doc_ch/models_list.md) 中下载PaddleOCR提供的预测模型; @@ -32,7 +36,7 @@ wget -nc -P ./inference https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppoc cd ./inference && tar xf ch_ppocr_mobile_v2.0_det_infer.tar && cd .. ``` -## 2. 模型转换 +- 模型转换 使用 Paddle2ONNX 将Paddle静态图模型转换为ONNX模型格式: @@ -45,11 +49,11 @@ paddle2onnx --model_dir=./inference/ch_ppocr_mobile_v2.0_det_infer/ \ --enable_onnx_checker=True ``` -执行完毕后,ONNX模型会被保存在 `./inference/det_mobile_onnx/` 路径下 +执行完毕后,ONNX 模型会被保存在 `./inference/det_mobile_onnx/` 路径下 ## 3. onnx 预测 -以检测模型为例,使用onnx预测可执行如下命令: +以检测模型为例,使用 ONNX 预测可执行如下命令: ``` python3.7 ../../tools/infer/predict_det.py --use_gpu=False --use_onnx=True \