From eea7cbbe2c8705827587338f134afe0a2a3dcb56 Mon Sep 17 00:00:00 2001 From: FlyingQianMM <245467267@qq.com> Date: Wed, 20 May 2020 16:58:09 +0800 Subject: [PATCH] fix deploy_openvino.md --- deploy/README.md | 6 ----- docs/tutorials/deploy/deploy_openvino.md | 27 ++++++++++--------- .../deploy/deploy_server/encryption.md | 2 +- 3 files changed, 15 insertions(+), 20 deletions(-) delete mode 100644 deploy/README.md diff --git a/deploy/README.md b/deploy/README.md deleted file mode 100644 index 1a9efe9..0000000 --- a/deploy/README.md +++ /dev/null @@ -1,6 +0,0 @@ -# 模型部署 - -本目录为PaddleX模型部署代码, 编译和使用的教程参考: - -- [C++部署文档](../docs/tutorials/deploy/deploy.md#C部署) -- [OpenVINO部署文档](../docs/tutorials/deploy/deploy.md#openvino部署) diff --git a/docs/tutorials/deploy/deploy_openvino.md b/docs/tutorials/deploy/deploy_openvino.md index 49e2cbf..7011ca2 100644 --- a/docs/tutorials/deploy/deploy_openvino.md +++ b/docs/tutorials/deploy/deploy_openvino.md @@ -1,11 +1,11 @@ # OpenVINO部署 ## 方案简介 -OpenVINO部署方案位于目录`deploy/openvino/`下,且独立于PaddleX其他模块,该方案目前支持在 **Linux** 完成编译和部署运行。 +OpenVINO部署方案位于目录`PaddleX/deploy/openvino/`下,且独立于PaddleX其他模块,该方案目前支持在 **Linux** 完成编译和部署运行。 PaddleX到OpenVINO的部署流程如下: ->> PaddleX --> ONNX --> OpenVINO IR --> OpenVINO Inference Engine +> PaddleX --> ONNX --> OpenVINO IR --> OpenVINO Inference Engine |目前支持OpenVINO部署的PaddleX模型| |-----| @@ -16,7 +16,7 @@ PaddleX到OpenVINO的部署流程如下: |ResNet50_vd| |ResNet101_vd| |ResNet50_vd_ssld| -|ResNet101_vd_ssld +|ResNet101_vd_ssld| |DarkNet53| |MobileNetV1| |MobileNetV2| @@ -25,9 +25,11 @@ PaddleX到OpenVINO的部署流程如下: |DenseNet201| ## 部署流程 + ### 说明 本文档在 `Ubuntu`使用`GCC 4.8.5` 进行了验证,如果需要使用更多G++版本和平台的OpenVino编译,请参考: [OpenVINO](https://github.com/openvinotoolkit/openvino/blob/2020/build-instruction.md)。 + ### 验证环境 * Ubuntu* 16.04 (64-bit) with GCC* 4.8.5 * CMake 3.12 @@ -56,7 +58,7 @@ PaddleX到OpenVINO的部署流程如下: - ngraph: 说明:openvino编译的过程中会生成ngraph的lib文件,位于{openvino根目录}/bin/intel64/Release/lib/下。 -### Step2: 编译demo +### Step2: 编译 编译`cmake`的命令在`scripts/build.sh`中,请根据Step1中编译软件的实际情况修改主要参数,其主要内容说明如下: @@ -89,16 +91,17 @@ make ### Step3: 模型转换 -将PaddleX模型转换成ONNX模型 +将PaddleX模型转换成ONNX模型: ``` paddlex --export_onnx --model_dir=/path/to/xiaoduxiong_epoch_12 --save_dir=/path/to/onnx_model ``` -将生成的onnx模型转换为OpencVINO支持的格式,请参考:[Model Optimizer文档](https://docs.openvinotoolkit.org/latest/_docs_MO_DG_Deep_Learning_Model_Optimizer_DevGuide.html) +将生成的onnx模型转换为OpenVINO支持的格式,请参考:[Model Optimizer文档](https://docs.openvinotoolkit.org/latest/_docs_MO_DG_Deep_Learning_Model_Optimizer_DevGuide.html) ### Step4: 预测 -编译成功后,预测demo的可执行程序分别为`build/detector`,其主要命令参数说明如下: + +编译成功后,分类任务的预测可执行程序为`classifier`,其主要命令参数说明如下: | 参数 | 说明 | | ---- | ---- | @@ -107,17 +110,14 @@ paddlex --export_onnx --model_dir=/path/to/xiaoduxiong_epoch_12 --save_dir=/path | --image_list | 按行存储图片路径的.txt文件 | | --device | 运行的平台, 默认值为"CPU" | - -### 样例 - -可使用[小度熊识别模型](deploy_server/deploy_python.html#inference)中导出的`inference_model`和测试图片进行预测。 +#### 样例 `样例一`: 测试图片 `/path/to/xiaoduxiong.jpeg` ```shell -./build/classifier --model_dir=/path/to/inference_model --image=/path/to/xiaoduxiong.jpeg +./build/classifier --model_dir=/path/to/openvino_model --image=/path/to/xiaoduxiong.jpeg ``` @@ -130,6 +130,7 @@ paddlex --export_onnx --model_dir=/path/to/xiaoduxiong_epoch_12 --save_dir=/path ... /path/to/images/xiaoduxiongn.jpeg ``` + ```shell -./build/classifier --model_dir=/path/to/models/inference_model --image_list=/root/projects/images_list.txt - +./build/classifier --model_dir=/path/to/models/openvino_model --image_list=/root/projects/images_list.txt ``` diff --git a/docs/tutorials/deploy/deploy_server/encryption.md b/docs/tutorials/deploy/deploy_server/encryption.md index 32d1bcd..7b39fbc 100644 --- a/docs/tutorials/deploy/deploy_server/encryption.md +++ b/docs/tutorials/deploy/deploy_server/encryption.md @@ -76,7 +76,7 @@ paddlex-encryption | use_gpu | 是否使用 GPU 预测, 支持值为0或1(默认值为0) | | use_trt | 是否使用 TensorTr 预测, 支持值为0或1(默认值为0) | | gpu_id | GPU 设备ID, 默认值为0 | -| save_dir | 保存可视化结果的路径, 默认值为"output",classfier无该参数 | +| save_dir | 保存可视化结果的路径, 默认值为"output",classifier无该参数 | | key | 加密过程中产生的密钥信息,默认值为""表示加载的是未加密的模型 | -- GitLab