Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
1060d89a
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
1060d89a
编写于
6月 28, 2020
作者:
J
jack
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
improve cpp, encryption deployment description
上级
32e7e39b
变更
3
显示空白变更内容
内联
并排
Showing
3 changed file
with
15 addition
and
25 deletion
+15
-25
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md
...rials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md
+5
-2
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_win_vs2019.md
.../deploy/deploy_server/deploy_cpp/deploy_cpp_win_vs2019.md
+6
-21
docs/tutorials/deploy/deploy_server/encryption.md
docs/tutorials/deploy/deploy_server/encryption.md
+4
-2
未找到文件。
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md
浏览文件 @
1060d89a
...
...
@@ -119,7 +119,7 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
> **注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型(模型版本可查看model.yml文件中的version字段)暂时无法直接用于预测部署,参考[模型版本升级](../../upgrade_version.md)对模型版本进行升级。**
编译成功后,预测demo的可执行程序分别为
`build/demo/detector`
,
`build/demo/classifer`
,
`build/demo/segmenter`
,用户可根据自己的模型类型选择,其主要命令参数说明如下:
编译成功后,预测demo的可执行程序分别为
`build/demo/detector`
,
`build/demo/classif
i
er`
,
`build/demo/segmenter`
,用户可根据自己的模型类型选择,其主要命令参数说明如下:
| 参数 | 说明 |
| ---- | ---- |
...
...
@@ -130,6 +130,9 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
| use_trt | 是否使用 TensorTr 预测, 支持值为0或1(默认值为0) |
| gpu_id | GPU 设备ID, 默认值为0 |
| save_dir | 保存可视化结果的路径, 默认值为"output",
**classfier无该参数**
|
| key | 加密过程中产生的密钥信息,默认值为""表示加载的是未加密的模型 |
| batch_size | 预测的批量大小,默认为1 |
| thread_num | 预测的线程数,默认为cpu处理器个数 |
## 样例
...
...
@@ -155,6 +158,6 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
/path/to/images/xiaoduxiongn.jpeg
```
```
shell
./build/demo/detector
--model_dir
=
/path/to/models/inference_model
--image_list
=
/root/projects/images_list.txt
--use_gpu
=
1
--save_dir
=
output
./build/demo/detector
--model_dir
=
/path/to/models/inference_model
--image_list
=
/root/projects/images_list.txt
--use_gpu
=
1
--save_dir
=
output
--batch_size
=
2
--thread_num
=
2
```
图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_win_vs2019.md
浏览文件 @
1060d89a
...
...
@@ -61,23 +61,16 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
### Step4: 使用Visual Studio 2019直接编译CMake
1. 打开Visual Studio 2019 Community,点击`
继续但无需代码
`
![step2](../../images/vs2019_step1.png)
2. 点击: `
文件
`->`
打开
`->`
CMake
`
![step2.1](../../images/vs2019_step2.png)
选择项目代码所在路径,并打开`
CMakeList.txt
`:
![step2.2](../../images/vs2019_step3.png)
3. 点击:`
项目
`->`
CMake设置
`
![step3](../../images/vs2019_step4.png)
4. 点击`
浏览
`,分别设置编译选项指定`
CUDA
`、`
OpenCV
`、`
Paddle预测库
`的路径
![step3](../../images/vs2019_step5.png)
依赖库路径的含义说明如下(带*表示仅在使用**GPU版本**预测库时指定, 其中CUDA库版本尽量对齐,**使用9.0、10.0版本,不使用9.2、10.1等版本CUDA库**):
...
...
@@ -90,29 +83,19 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
**注意:**
1. 使用`
CPU
`版预测库,请把`
WITH_GPU
`的`
值
`去掉勾
2. 如果使用的是`
openblas
`版本,请把`
WITH_MKL
`的`
值
`去掉勾
3. Windows环境下编译会自动下载YAML,如果编译环境无法访问外网,可手动下载: [yaml-cpp.zip](https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip)
yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`
URL https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip
` 中的网址,改为下载文件的路径。
4. 如果需要使用模型加密功能,需要手动下载[Windows预测模型加密工具](https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip),解压到某目录\\path\\to\\paddlex-encryption。编译时需勾选WITH_EBNCRYPTION并且在ENCRTYPTION_DIR填入\\path\\to\\paddlex-encryption。
4. 如果需要使用模型加密功能,需要手动下载[Windows预测模型加密工具](https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip),解压到某目录\\\\path\\\\to\\\\paddlex-encryption。编译时需勾选WITH_EBNCRYPTION并且在ENCRTYPTION_DIR填入\\\\path\\\\to\\\\paddlex-encryption。
![step_encryption](../../images/vs2019_step_encryption.png)
![step4](../../images/vs2019_step6.png)
**设置完成后**, 点击上图中`
保存并生成CMake缓存以加载变量
`。
5. 点击`
生成
`->`
全部生成
`
![step6](../../images/vs2019_step7.png)
### Step5: 预测及可视化
**在加载模型前,请检查你的模型目录中文件应该包括`
model.yml
`、`
__model__
`和`
__params__
`三个文件。如若不满足这个条件,请参考[模型导出为Inference文档](../deploy_python.html#inference)将模型导出为部署格式。**
**注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型(模型版本可查看model.yml文件中的version字段)暂时无法直接用于预测部署,参考[模型版本升级](../../upgrade_version.md)对模型版本进行升级。**
...
...
@@ -124,7 +107,7 @@ d:
cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
```
编译成功后,预测demo的入口程序为`
paddlex_inference
\d
etector.exe
`,`
paddlex_inference
\c
lassifer.exe
`,`
paddlex_inference
\s
egmenter.exe
`,用户可根据自己的模型类型选择,其主要命令参数说明如下:
编译成功后,预测demo的入口程序为`
paddlex_inference
\d
etector.exe
`,`
paddlex_inference
\c
lassif
i
er.exe
`,`
paddlex_inference
\s
egmenter.exe
`,用户可根据自己的模型类型选择,其主要命令参数说明如下:
| 参数 | 说明 |
| ---- | ---- |
...
...
@@ -134,7 +117,9 @@ cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
| use_gpu | 是否使用 GPU 预测, 支持值为0或1(默认值为0) |
| gpu_id | GPU 设备ID, 默认值为0 |
| save_dir | 保存可视化结果的路径, 默认值为"output",classfier无该参数 |
| key | 加密过程中产生的密钥信息,默认值为""表示加载的是未加密的模型 |
| batch_size | 预测的批量大小,默认为1 |
| thread_num | 预测的线程数,默认为cpu处理器个数 |
## 样例
...
...
@@ -161,6 +146,6 @@ cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
\\path\\to\\images\\xiaoduxiongn.jpeg
```
```shell
.\\paddlex_inference\\detector.exe --model_dir=\\path\\to\\inference_model --image_list=\\path\\to\\images_list.txt --use_gpu=1 --save_dir=output
.\\paddlex_inference\\detector.exe --model_dir=\\path\\to\\inference_model --image_list=\\path\\to\\images_list.txt --use_gpu=1 --save_dir=output
--batch_size=2 --thread_num=2
```
图片文件`
可视化预测结果
`会保存在`
save_dir
`
参数设置的目录下。
docs/tutorials/deploy/deploy_server/encryption.md
浏览文件 @
1060d89a
...
...
@@ -75,7 +75,7 @@ Linux:
Windows:
```
.
/paddlex-encryption/tool/paddlex_encrypt_tool.exe -model_dir /path/to/paddlex_inference_model -save_dir /path/to/
paddlex_encrypted_model
.
\paddlex-encryption\tool\paddlex_encrypt_tool.exe -model_dir \\path\\to\\paddlex_inference_model -save_dir \\path\\to\\
paddlex_encrypted_model
```
`-model_dir`
用于指定inference模型路径(参考
[
导出inference模型
](
deploy_python.html#inference
)
将模型导出为inference格式模型),可使用
[
导出小度熊识别模型
](
deploy_python.html#inference
)
中导出的
`inference_model`
(
**注意**
:由于PaddleX代码的持续更新,版本低于1.0.0的模型暂时无法直接用于预测部署,参考
[
模型版本升级
](
../upgrade_version.md
)
对模型版本进行升级。)。加密完成后,加密过的模型会保存至指定的
`-save_dir`
下,包含
`__model__.encrypted`
、
`__params__.encrypted`
和
`model.yml`
三个文件,同时生成密钥信息,命令输出如下图所示,密钥为
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
...
...
@@ -97,6 +97,8 @@ Windows:
| gpu_id | GPU 设备ID, 默认值为0 |
| save_dir | 保存可视化结果的路径, 默认值为"output",classifier无该参数 |
| key | 加密过程中产生的密钥信息,默认值为""表示加载的是未加密的模型 |
| batch_size | 预测的批量大小,默认为1 |
| thread_num | 预测的线程数,默认为cpu处理器个数 |
## 样例
...
...
@@ -128,7 +130,7 @@ Windows:
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
### 2.2 Windows平台使用
参考
[
Windows平台编译指南
](
deploy_cpp/deploy_cpp_win_vs2019.md
)
。参数与Linux版本预测部署一致。预测demo的入口程序为paddlex_inference
\d
etector.exe,paddlex_inference
\c
lassifer.exe,paddlex_inference
\s
egmenter.exe。
参考
[
Windows平台编译指南
](
deploy_cpp/deploy_cpp_win_vs2019.md
)
。
需自行下载Windows版PaddleX加密工具压缩包,解压,在编译指南的编译流程基础上,在CMake设置中勾选WITH_ENCRYPTION,ENCRYPTION_DIR填写为加密工具包解压后的目录,再进行编译。
参数与Linux版本预测部署一致。预测demo的入口程序为paddlex_inference
\d
etector.exe,paddlex_inference
\c
lassifer.exe,paddlex_inference
\s
egmenter.exe。
## 样例
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录