提交 40f52198 编写于 作者: S syyxsxx

fix

上级 245ec977
...@@ -70,8 +70,8 @@ class Model { ...@@ -70,8 +70,8 @@ class Model {
* @param model_dir: the directory which contains model.yml * @param model_dir: the directory which contains model.yml
* @param use_gpu: use gpu or not when infering * @param use_gpu: use gpu or not when infering
* @param use_trt: use Tensor RT or not when infering * @param use_trt: use Tensor RT or not when infering
* @param use_trt: use mkl or not when infering * @param use_mkl: use mkl or not when infering
* @param mkl_thread_num: the threads of mkl when infering * @param mkl_thread_num: number of threads for mkldnn when infering
* @param gpu_id: the id of gpu when infering with using gpu * @param gpu_id: the id of gpu when infering with using gpu
* @param key: the key of encryption when using encrypted model * @param key: the key of encryption when using encrypted model
* @param use_ir_optim: use ir optimization when infering * @param use_ir_optim: use ir optimization when infering
......
find_package(Git REQUIRED)
include(ExternalProject) include(ExternalProject)
......
...@@ -35,4 +35,4 @@ python convertor.py --model_dir /path/to/inference_model --save_dir /path/to/ope ...@@ -35,4 +35,4 @@ python convertor.py --model_dir /path/to/inference_model --save_dir /path/to/ope
| --data type(option) | FP32、FP16,默认为FP32,VPU下的IR需要为FP16 | | --data type(option) | FP32、FP16,默认为FP32,VPU下的IR需要为FP16 |
**注意** **注意**
- 由于OpenVINO不支持ONNX的resize-11 OP的原因,目前还不支持Paddle的分割模型 - 由于OpenVINO不支持ONNX的resize-11 OP的原因,目前还不支持Paddle的分割模型
- yoloV3模型paddle->OpenVINO后,OpenVINO输出的box包含了background - YOLOv3在通过OpenVINO部署时,由于OpenVINO对ONNX OP的支持限制,我们在将YOLOv3的Paddle模型导出时,对最后一层multiclass_nms进行了特殊处理,导出的ONNX模型,最终输出的Box结果包括背景类别(而Paddle模型不包含),此处在OpenVINO的部署代码中,我们通过后处理过滤了背景类别。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册