Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
40f52198
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
40f52198
编写于
8月 31, 2020
作者:
S
syyxsxx
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix
上级
245ec977
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
3 addition
and
4 deletion
+3
-4
deploy/cpp/include/paddlex/paddlex.h
deploy/cpp/include/paddlex/paddlex.h
+2
-2
deploy/raspberry/cmake/yaml-cpp.cmake
deploy/raspberry/cmake/yaml-cpp.cmake
+0
-1
docs/deploy/openvino/export_openvino_model.md
docs/deploy/openvino/export_openvino_model.md
+1
-1
未找到文件。
deploy/cpp/include/paddlex/paddlex.h
浏览文件 @
40f52198
...
@@ -70,8 +70,8 @@ class Model {
...
@@ -70,8 +70,8 @@ class Model {
* @param model_dir: the directory which contains model.yml
* @param model_dir: the directory which contains model.yml
* @param use_gpu: use gpu or not when infering
* @param use_gpu: use gpu or not when infering
* @param use_trt: use Tensor RT or not when infering
* @param use_trt: use Tensor RT or not when infering
* @param use_
trt
: use mkl or not when infering
* @param use_
mkl
: use mkl or not when infering
* @param mkl_thread_num:
the threads of mkl
when infering
* @param mkl_thread_num:
number of threads for mkldnn
when infering
* @param gpu_id: the id of gpu when infering with using gpu
* @param gpu_id: the id of gpu when infering with using gpu
* @param key: the key of encryption when using encrypted model
* @param key: the key of encryption when using encrypted model
* @param use_ir_optim: use ir optimization when infering
* @param use_ir_optim: use ir optimization when infering
...
...
deploy/raspberry/cmake/yaml-cpp.cmake
浏览文件 @
40f52198
find_package
(
Git REQUIRED
)
include
(
ExternalProject
)
include
(
ExternalProject
)
...
...
docs/deploy/openvino/export_openvino_model.md
浏览文件 @
40f52198
...
@@ -35,4 +35,4 @@ python convertor.py --model_dir /path/to/inference_model --save_dir /path/to/ope
...
@@ -35,4 +35,4 @@ python convertor.py --model_dir /path/to/inference_model --save_dir /path/to/ope
| --data type(option) | FP32、FP16,默认为FP32,VPU下的IR需要为FP16 |
| --data type(option) | FP32、FP16,默认为FP32,VPU下的IR需要为FP16 |
**注意**
:
**注意**
:
-
由于OpenVINO不支持ONNX的resize-11 OP的原因,目前还不支持Paddle的分割模型
-
由于OpenVINO不支持ONNX的resize-11 OP的原因,目前还不支持Paddle的分割模型
-
yoloV3模型paddle->OpenVINO后,OpenVINO输出的box包含了background
-
YOLOv3在通过OpenVINO部署时,由于OpenVINO对ONNX OP的支持限制,我们在将YOLOv3的Paddle模型导出时,对最后一层multiclass_nms进行了特殊处理,导出的ONNX模型,最终输出的Box结果包括背景类别(而Paddle模型不包含),此处在OpenVINO的部署代码中,我们通过后处理过滤了背景类别。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录