提交 99b393ac 编写于 作者: T tink2123

update doc for paddle2onnx

上级 3f5ffc32
......@@ -7,7 +7,7 @@
需要准备 Paddle2ONNX 模型转化环境,和 ONNX 模型预测环境
### Paddle2ONNX
paddle2onnx 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式,算子目前稳定支持导出 ONNX Opset 9~11,部分Paddle算子支持更低的ONNX Opset转换。
Paddle2ONNX 支持将 PaddlePaddle 模型格式转化到 ONNX 模型格式,算子目前稳定支持导出 ONNX Opset 9~11,部分Paddle算子支持更低的ONNX Opset转换。
更多细节可参考 [Paddle2ONNX](https://github.com/PaddlePaddle/Paddle2ONNX/blob/develop/README_zh.md)
- 安装 Paddle2ONNX
......@@ -20,6 +20,10 @@ python3.7 -m pip install paddle2onnx
# 建议安装 1.4.0 版本,可根据环境更换版本号
python3.7 -m pip install onnxruntime==1.4.0
```
## 2. 模型转换
- Paddle 模型下载
有两种方式获取Paddle静态图模型:在 [model_list](../../doc/doc_ch/models_list.md) 中下载PaddleOCR提供的预测模型;
......@@ -32,7 +36,7 @@ wget -nc -P ./inference https://paddleocr.bj.bcebos.com/dygraph_v2.0/ch/ch_ppoc
cd ./inference && tar xf ch_ppocr_mobile_v2.0_det_infer.tar && cd ..
```
## 2. 模型转换
- 模型转换
使用 Paddle2ONNX 将Paddle静态图模型转换为ONNX模型格式:
......@@ -45,11 +49,11 @@ paddle2onnx --model_dir=./inference/ch_ppocr_mobile_v2.0_det_infer/ \
--enable_onnx_checker=True
```
执行完毕后,ONNX模型会被保存在 `./inference/det_mobile_onnx/` 路径下
执行完毕后,ONNX 模型会被保存在 `./inference/det_mobile_onnx/` 路径下
## 3. onnx 预测
以检测模型为例,使用onnx预测可执行如下命令:
以检测模型为例,使用 ONNX 预测可执行如下命令:
```
python3.7 ../../tools/infer/predict_det.py --use_gpu=False --use_onnx=True \
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册