Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
3874a90f
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
3874a90f
编写于
8月 14, 2020
作者:
S
syyxsxx
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix doc buge
上级
1f69774e
变更
5
隐藏空白更改
内联
并排
Showing
5 changed file
with
23 addition
and
8 deletion
+23
-8
deploy/README.md
deploy/README.md
+2
-2
docs/deploy/openvino/introduction.md
docs/deploy/openvino/introduction.md
+2
-1
docs/deploy/openvino/windows.md
docs/deploy/openvino/windows.md
+6
-5
docs/deploy/raspberry/export_nb_model.md
docs/deploy/raspberry/export_nb_model.md
+2
-0
docs/deploy/raspberry/index.rst
docs/deploy/raspberry/index.rst
+11
-0
未找到文件。
deploy/README.md
浏览文件 @
3874a90f
...
...
@@ -14,5 +14,5 @@
-
[
模型量化
](
../docs/deploy/paddlelite/slim/quant.md
)
-
[
模型裁剪
](
../docs/deploy/paddlelite/slim/prune.md
)
-
[
Android平台
](
../docs/deploy/paddlelite/android.md
)
-
[
OpenVINO部署
](
../docs/develoy/openvino/introduction.md
)
-
[
树莓派部署
](
../docs/develop/raspberry/Raspberry.md
)
\ No newline at end of file
-
[
OpenVINO部署
](
../docs/deploy/openvino/introduction.md
)
-
[
树莓派部署
](
../docs/deplop/raspberry/Raspberry.md
)
\ No newline at end of file
docs/deploy/openvino/introduction.md
浏览文件 @
3874a90f
...
...
@@ -3,6 +3,7 @@ PaddleX支持将训练好的paddle模型通过openvino实现模型的预测加
## 部署支持情况
下表提供了PaddleX在不同环境下对使用OpenVINO加速支持情况
|硬件平台|Linux|Windows|Raspbian OS|c++|python |分类|检测|分割|
| ----| ---- | ---- | ----| ---- | ---- |---- | ---- |---- |---- | ---- |
|CPU|支持|支持|不支持|支持|支持|支持|支持|支持|
...
...
@@ -17,7 +18,7 @@ PaddleX支持将训练好的paddle模型通过openvino实现模型的预测加
## 模型转换
**模型转换请参考文档[模型转换](./export_openvino_model.md)**
**说明**
:由于不同软硬件平台下OpenVINO模型转换方法一致,后续文档中不再赘述。
**说明**
:由于不同软硬件平台下OpenVINO模型转换方法一致,
模型转换的方法,
后续文档中不再赘述。
## 预测部署
由于不同软硬下部署OpenVINO实现预测的方式不完全一致,具体请参考:
...
...
docs/deploy/openvino/windows.md
浏览文件 @
3874a90f
...
...
@@ -8,12 +8,12 @@ Windows 平台下,我们使用`Visual Studio 2019 Community` 进行了测试
*
OpenVINO 2020.4
*
CMake 3.0+
**说明**
:PaddleX安装请参考
[
PaddleX
](
https://paddlex.readthedocs.io/zh_CN/latest/install.html
)
, OpenVINO安装请参考
[
OpenVINO-Windows
](
h
h
ttps://docs.openvinotoolkit.org/latest/openvino_docs_install_guides_installing_openvino_windows.html
)
**说明**
:PaddleX安装请参考
[
PaddleX
](
https://paddlex.readthedocs.io/zh_CN/latest/install.html
)
, OpenVINO安装请参考
[
OpenVINO-Windows
](
https://docs.openvinotoolkit.org/latest/openvino_docs_install_guides_installing_openvino_windows.html
)
**注意**
:安装完OpenVINO后需要手动添加OpenVINO目录到系统环境变量,否则在运行程序时会出现找不到dll的情况。以OpenVINO不改变OpenVINO安装目录情况下为示例,流程如下
-
我的电脑->属性->高级系统设置->环境变量
-
在系统变量中找到Path(如没有,自行创建),并双击编辑
-
新建,将OpenVINO以下路径填入并保存:
-
新建,
分别
将OpenVINO以下路径填入并保存:
`C:\Program File (x86)\IntelSWTools\openvino\inference_engine\bin\intel64\Release`
`C:\Program File (x86)\IntelSWTools\openvino\inference_engine\external\tbb\bin`
`C:\Program File (x86)\IntelSWTools\openvino\deployment_tools\ngraph\lib`
...
...
@@ -55,10 +55,11 @@ git clone https://github.com/PaddlePaddle/PaddleX.git
| ---- | ---- |
| OPENCV_DIR | opencv库路径 |
| OPENVINO_DIR | OpenVINO推理库路径,在OpenVINO安装目录下的deployment/inference_engine目录,若未修改OpenVINO默认安装目录可以不用修改 |
| NGRAPH
——
LIB | OpenVINO的ngraph库路径,在OpenVINO安装目录下的deployment/ngraph/lib目录,若未修改OpenVINO默认安装目录可以不用修改 |
| NGRAPH
_
LIB | OpenVINO的ngraph库路径,在OpenVINO安装目录下的deployment/ngraph/lib目录,若未修改OpenVINO默认安装目录可以不用修改 |
| GFLAGS_DIR | gflags库路径 |
| GLOG_DIR | glog库路径 |
| WITH_STATIC_LIB | 是否静态编译,默认为True |
| WITH_STATIC_LIB | 是否静态编译,默认为True |
**设置完成后**
, 点击
`保存并生成CMake缓存以加载变量`
。
5.
点击
`生成`
->
`全部生成`
### Step5: 预测
...
...
@@ -66,7 +67,7 @@ git clone https://github.com/PaddlePaddle/PaddleX.git
```
D:
cd D:\projects\PaddleX\deploy\
cpp
\out\build\x64-Release
cd D:\projects\PaddleX\deploy\
openvino
\out\build\x64-Release
```
*
编译成功后,图片预测demo的入口程序为
`detector.exe`
,
`classifier.exe`
,
`segmenter.exe`
,用户可根据自己的模型类型选择,其主要命令参数说明如下:
...
...
docs/deploy/raspberry/export_nb_model.md
浏览文件 @
3874a90f
...
...
@@ -17,6 +17,8 @@ Paddle-Lite模型需要通过Paddle-Lite的opt工具转出模型,下载并解
| --param_file | 导出inference模型中包含的参数文件:
`__params__`
所在的路径|
| --valid_targets |指定模型可执行的backend,这里请指定为
`arm`
|
| --optimize_out_type | 输出模型类型,目前支持两种类型:protobuf和naive_buffer,其中naive_buffer是一种更轻量级的序列化/反序列化,这里请指定为
`naive_buffer`
|
若安装了python版本的Paddle-Lite也可以通过如下方式转换
```
./paddle_lite_opt --model_file=<model_path> \
...
...
docs/deploy/raspberry/index.rst
0 → 100644
浏览文件 @
3874a90f
树莓派部署
=======================================
.. toctree::
:maxdepth: 2
:caption: 文档目录:
Raspberry.md
python.md
export_nb_model.md
\ No newline at end of file
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录