Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
1c273121
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
1c273121
编写于
6月 29, 2020
作者:
J
Jason
提交者:
GitHub
6月 29, 2020
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #179 from FlyingQianMM/develop_draw
modify details of server windows deploy
上级
c230217a
2033b427
变更
4
显示空白变更内容
内联
并排
Showing
4 changed file
with
66 addition
and
50 deletion
+66
-50
deploy/cpp/include/paddlex/transforms.h
deploy/cpp/include/paddlex/transforms.h
+3
-1
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md
...rials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md
+0
-2
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_win_vs2019.md
.../deploy/deploy_server/deploy_cpp/deploy_cpp_win_vs2019.md
+40
-27
docs/tutorials/deploy/deploy_server/encryption.md
docs/tutorials/deploy/deploy_server/encryption.md
+23
-20
未找到文件。
deploy/cpp/include/paddlex/transforms.h
浏览文件 @
1c273121
...
@@ -141,10 +141,12 @@ class ResizeByLong : public Transform {
...
@@ -141,10 +141,12 @@ class ResizeByLong : public Transform {
class
Resize
:
public
Transform
{
class
Resize
:
public
Transform
{
public:
public:
virtual
void
Init
(
const
YAML
::
Node
&
item
)
{
virtual
void
Init
(
const
YAML
::
Node
&
item
)
{
if
(
item
[
"interp"
].
IsDefined
())
{
interp_
=
item
[
"interp"
].
as
<
std
::
string
>
();
}
if
(
item
[
"target_size"
].
IsScalar
())
{
if
(
item
[
"target_size"
].
IsScalar
())
{
height_
=
item
[
"target_size"
].
as
<
int
>
();
height_
=
item
[
"target_size"
].
as
<
int
>
();
width_
=
item
[
"target_size"
].
as
<
int
>
();
width_
=
item
[
"target_size"
].
as
<
int
>
();
interp_
=
item
[
"interp"
].
as
<
std
::
string
>
();
}
else
if
(
item
[
"target_size"
].
IsSequence
())
{
}
else
if
(
item
[
"target_size"
].
IsSequence
())
{
std
::
vector
<
int
>
target_size
=
item
[
"target_size"
].
as
<
std
::
vector
<
int
>>
();
std
::
vector
<
int
>
target_size
=
item
[
"target_size"
].
as
<
std
::
vector
<
int
>>
();
width_
=
target_size
[
0
];
width_
=
target_size
[
0
];
...
...
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_linux.md
浏览文件 @
1c273121
...
@@ -116,8 +116,6 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
...
@@ -116,8 +116,6 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
**在加载模型前,请检查你的模型目录中文件应该包括`model.yml`、`__model__`和`__params__`三个文件。如若不满足这个条件,请参考[模型导出为Inference文档](../deploy_python.html#inference)将模型导出为部署格式。**
**在加载模型前,请检查你的模型目录中文件应该包括`model.yml`、`__model__`和`__params__`三个文件。如若不满足这个条件,请参考[模型导出为Inference文档](../deploy_python.html#inference)将模型导出为部署格式。**
> **注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型(模型版本可查看model.yml文件中的version字段)暂时无法直接用于预测部署,参考[模型版本升级](../../upgrade_version.md)对模型版本进行升级。**
编译成功后,预测demo的可执行程序分别为
`build/demo/detector`
,
`build/demo/classifier`
,
`build/demo/segmenter`
,用户可根据自己的模型类型选择,其主要命令参数说明如下:
编译成功后,预测demo的可执行程序分别为
`build/demo/detector`
,
`build/demo/classifier`
,
`build/demo/segmenter`
,用户可根据自己的模型类型选择,其主要命令参数说明如下:
| 参数 | 说明 |
| 参数 | 说明 |
...
...
docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_win_vs2019.md
浏览文件 @
1c273121
...
@@ -10,11 +10,10 @@ Windows 平台下,我们使用`Visual Studio 2019 Community` 进行了测试
...
@@ -10,11 +10,10 @@ Windows 平台下,我们使用`Visual Studio 2019 Community` 进行了测试
请确保系统已经安装好上述基本软件,我们使用的是
`VS2019`
的社区版。
请确保系统已经安装好上述基本软件,我们使用的是
`VS2019`
的社区版。
**下面所有示例以工作目录为 `D:\projects`演示
**
。
**下面所有示例以工作目录为 `D:\projects`演示
。**
### Step1: 下载代码
### Step1: 下载
PaddleX预测
代码
下载源代码
```
shell
```
shell
d:
d:
mkdir
projects
mkdir
projects
...
@@ -22,12 +21,12 @@ cd projects
...
@@ -22,12 +21,12 @@ cd projects
git clone https://github.com/PaddlePaddle/PaddleX.git
git clone https://github.com/PaddlePaddle/PaddleX.git
```
```
**说明**
:其中
`C++`
预测代码在
`PaddleX
/deploy/
cpp`
目录,该目录不依赖任何
`PaddleX`
下其他目录。
**说明**
:其中
`C++`
预测代码在
`PaddleX
\deploy\
cpp`
目录,该目录不依赖任何
`PaddleX`
下其他目录。
### Step2: 下载PaddlePaddle C++ 预测库 fluid_inference
### Step2: 下载PaddlePaddle C++ 预测库 fluid_inference
PaddlePaddle C++ 预测库针对
不同的
`CPU`
,
`CUDA`
,以及是否支持TensorRT,提供了不同的预编译版本,目前PaddleX依赖于Paddle1.8版本,以下提供了多个不同版本的Paddle预测库
:
PaddlePaddle C++ 预测库针对
是否使用GPU、是否支持TensorRT、以及不同的CUDA版本提供了已经编译好的预测库,目前PaddleX依赖于Paddle 1.8,基于Paddle 1.8的Paddle预测库下载链接如下所示
:
| 版本说明 | 预测库(1.8.2版本) | 编译器 | 构建工具| cuDNN | CUDA |
| 版本说明 | 预测库(1.8.2版本) | 编译器 | 构建工具| cuDNN | CUDA |
| ---- | ---- | ---- | ---- | ---- | ---- |
| ---- | ---- | ---- | ---- | ---- | ---- |
...
@@ -37,10 +36,9 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
...
@@ -37,10 +36,9 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
| cuda9.0_cudnn7_avx_openblas |
[
fluid_inference.zip
](
https://paddle-wheel.bj.bcebos.com/1.8.2/win-infer/open/post97/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.4.1 | 9.0 |
| cuda9.0_cudnn7_avx_openblas |
[
fluid_inference.zip
](
https://paddle-wheel.bj.bcebos.com/1.8.2/win-infer/open/post97/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.4.1 | 9.0 |
| cuda10.0_cudnn7_avx_mkl |
[
fluid_inference.zip
](
https://paddle-wheel.bj.bcebos.com/1.8.2/win-infer/mkl/post107/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.5.0 | 9.0 |
| cuda10.0_cudnn7_avx_mkl |
[
fluid_inference.zip
](
https://paddle-wheel.bj.bcebos.com/1.8.2/win-infer/mkl/post107/fluid_inference_install_dir.zip
)
| MSVC 2015 update 3 | CMake v3.16.0 | 7.5.0 | 9.0 |
请根据实际情况选择下载,如若以上版本不满足您的需求,请至
[
C++预测库下载列表
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/windows_cpp_inference.html
)
选择符合的版本。
更多和更新的版本,请根据实际情况下载:
[
C++预测库下载列表
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/windows_cpp_inference.html
)
将预测库解压后,其所在目录(例如
`D:\projects\fluid_inference\`)下主要包含的内容有:
解压后
`D:\projects\fluid_inference\`目录下主要包含的内容为:
```
```
├── \paddle\ # paddle核心库和头文件
├── \paddle\ # paddle核心库和头文件
|
|
...
@@ -52,7 +50,7 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
...
@@ -52,7 +50,7 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
### Step3: 安装配置OpenCV
### Step3: 安装配置OpenCV
1. 在OpenCV官网下载适用于Windows平台的3.4.6版本, [下载地址](https://sourceforge.net/projects/opencvlibrary/files/3.4.6/opencv-3.4.6-vc14_vc15.exe/download)
1. 在OpenCV官网下载适用于Windows平台的3.4.6版本, [下载地址](https://sourceforge.net/projects/opencvlibrary/files/3.4.6/opencv-3.4.6-vc14_vc15.exe/download)
2. 运行下载的可执行文件,将OpenCV解压至指定目录,如`
D:
\p
rojects
\o
pencv
`
2. 运行下载的可执行文件,将OpenCV解压至指定目录,
例
如`
D:
\p
rojects
\o
pencv
`
3. 配置环境变量,如下流程所示
3. 配置环境变量,如下流程所示
- 我的电脑->属性->高级系统设置->环境变量
- 我的电脑->属性->高级系统设置->环境变量
- 在系统变量中找到Path(如没有,自行创建),并双击编辑
- 在系统变量中找到Path(如没有,自行创建),并双击编辑
...
@@ -61,19 +59,23 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
...
@@ -61,19 +59,23 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
### Step4: 使用Visual Studio 2019直接编译CMake
### Step4: 使用Visual Studio 2019直接编译CMake
1. 打开Visual Studio 2019 Community,点击`
继续但无需代码
`
1. 打开Visual Studio 2019 Community,点击`
继续但无需代码
`
![step2](../../images/vs2019_step1.png)
![step2](../../images/vs2019_step1.png)
2. 点击: `
文件
`->`
打开
`->`
CMake
`
2. 点击: `
文件
`->`
打开
`->`
CMake
`
![step2.1](../../images/vs2019_step2.png)
![step2.1](../../images/vs2019_step2.png)
选择项目代码所在路径,并打开`
CMakeList.txt
`:
选择C++预测代码所在路径(例如`
D:
\p
rojects
\P
addleX
\d
eploy
\c
pp
`),并打开`
CMakeList.txt
`:
![step2.2](../../images/vs2019_step3.png)
![step2.2](../../images/vs2019_step3.png)
3. 点击:`
项目
`->`
CMake设置
`
3. 点击:`
项目
`->`
CMake设置
`
![step3](../../images/vs2019_step4.png)
![step3](../../images/vs2019_step4.png)
4. 点击`
浏览
`,分别设置编译选项指定`
CUDA
`、`
OpenCV
`、`
Paddle预测库
`的路径
4. 点击`
浏览
`,分别设置编译选项指定`
CUDA
`、`
OpenCV
`、`
Paddle预测库
`的路径
![step3](../../images/vs2019_step5.png)
![step3](../../images/vs2019_step5.png)
依赖库路径的含义说明如下(带*表示仅在使用**GPU版本**预测库时指定, 其中CUDA库版本尽量
对齐,**使用9.0、10.0版本,不使用9.2、10.1等版本CUDA库**
):
依赖库路径的含义说明如下(带*表示仅在使用**GPU版本**预测库时指定, 其中CUDA库版本尽量
与Paddle预测库的对齐,例如Paddle预测库是**使用9.0、10.0版本**编译的,则编译PaddleX预测代码时**不使用9.2、10.1等版本**CUDA库
):
| 参数名 | 含义 |
| 参数名 | 含义 |
| ---- | ---- |
| ---- | ---- |
...
@@ -82,13 +84,16 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
...
@@ -82,13 +84,16 @@ PaddlePaddle C++ 预测库针对不同的`CPU`,`CUDA`,以及是否支持Tens
| PADDLE_DIR | Paddle c++预测库的路径 |
| PADDLE_DIR | Paddle c++预测库的路径 |
**注意:**
**注意:**
1. 使用`
CPU
`版预测库,请把`
WITH_GPU
`的`
值
`去掉勾
1.
如果
使用`
CPU
`版预测库,请把`
WITH_GPU
`的`
值
`去掉勾
2. 如果使用的是`
openblas
`版本,请把`
WITH_MKL
`的`
值
`去掉勾
2. 如果使用的是`
openblas
`版本,请把`
WITH_MKL
`的`
值
`去掉勾
3. Windows环境下编译会自动下载YAML,如果编译环境无法访问外网,可手动下载: [yaml-cpp.zip](https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip)
3. Windows环境下编译会自动下载YAML,如果编译环境无法访问外网,可手动下载: [yaml-cpp.zip](https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip)
yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`
URL https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip
` 中的网址,改为下载文件的路径。
yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`
URL https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip
` 中的网址,改为下载文件的路径。
4. 如果需要使用模型加密功能,需要手动下载[Windows预测模型加密工具](https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip),解压到D:/projects。解压后目录为D:/projects/paddlex-encryption。编译时需勾选WITH_EBNCRYPTION并且在ENCRTYPTION_DIR填入D:/projects/paddlex-encryption。
4. 如果需要使用模型加密功能,需要手动下载[Windows预测模型加密工具](https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip)。例如解压到D:/projects,解压后目录为D:/projects/paddlex-encryption。编译时需勾选WITH_EBNCRYPTION并且在ENCRTYPTION_DIR填入D:/projects/paddlex-encryption。
![step_encryption](../../images/vs2019_step_encryption.png)
![step_encryption](../../images/vs2019_step_encryption.png)
![step4](../../images/vs2019_step6.png)
![step4](../../images/vs2019_step6.png)
**设置完成后**, 点击上图中`
保存并生成CMake缓存以加载变量
`。
**设置完成后**, 点击上图中`
保存并生成CMake缓存以加载变量
`。
5. 点击`
生成
`->`
全部生成
`
5. 点击`
生成
`->`
全部生成
`
...
@@ -98,8 +103,6 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
...
@@ -98,8 +103,6 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
**在加载模型前,请检查你的模型目录中文件应该包括`
model.yml
`、`
__model__
`和`
__params__
`三个文件。如若不满足这个条件,请参考[模型导出为Inference文档](../deploy_python.html#inference)将模型导出为部署格式。**
**在加载模型前,请检查你的模型目录中文件应该包括`
model.yml
`、`
__model__
`和`
__params__
`三个文件。如若不满足这个条件,请参考[模型导出为Inference文档](../deploy_python.html#inference)将模型导出为部署格式。**
**注意:由于PaddleX代码的持续更新,版本低于1.0.0的模型(模型版本可查看model.yml文件中的version字段)暂时无法直接用于预测部署,参考[模型版本升级](../../upgrade_version.md)对模型版本进行升级。**
上述`
Visual Studio 2019
`编译产出的可执行文件在`
out
\b
uild
\x
64-Release
`目录下,打开`
cmd
`,并切换到该目录:
上述`
Visual Studio 2019
`编译产出的可执行文件在`
out
\b
uild
\x
64-Release
`目录下,打开`
cmd
`,并切换到该目录:
```
```
...
@@ -123,29 +126,39 @@ cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
...
@@ -123,29 +126,39 @@ cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
## 样例
## 样例
可使用[小度熊识别模型](../deploy_python.md)中导出的`
inference_model
`和测试图片进行预测,
导出到D:/projects,模型路径为D:/projects/
inference_model。
可使用[小度熊识别模型](../deploy_python.md)中导出的`
inference_model
`和测试图片进行预测,
例如导出到D:\projects,模型路径为D:\projects\
inference_model。
`
样例一
`:
### 样例一:(使用未加密的模型对单张图像做预测)
不使用`
GPU
`测试图片 `
D:
\
\
images
\
\
xiaoduxiong.jpeg
`
不使用`
GPU
`测试图片 `
D:
\
i
mages
\x
iaoduxiong.jpeg
`
```
shell
```
.\
\paddlex_inference\\detector.exe --model_dir=D:\\projects\\inference_model --image=D:\\images\
\xiaoduxiong.jpeg --save_dir=output
.\
paddlex_inference\detector.exe --model_dir=D:\projects\inference_model --image=D:\images
\xiaoduxiong.jpeg --save_dir=output
```
```
图片文件`
可视化预测结果
`会保存在`
save_dir
`参数设置的目录下。
图片文件`
可视化预测结果
`会保存在`
save_dir
`参数设置的目录下。
`
样例二
`:
### 样例二:(使用未加密的模型对图像列表做预测)
使用`
GPU
`预测多个图片`
D:
\
\
images
\
\
image_list.txt
`,image_list.txt内容的格式如下:
使用`
GPU
`预测多个图片`
D:
\
i
mages
\i
mage_list.txt
`,image_list.txt内容的格式如下:
```
```
D:\
\images\
\xiaoduxiong1.jpeg
D:\
images
\xiaoduxiong1.jpeg
D:\
\images\
\xiaoduxiong2.jpeg
D:\
images
\xiaoduxiong2.jpeg
...
...
D:\
\images\
\xiaoduxiongn.jpeg
D:\
images
\xiaoduxiongn.jpeg
```
```
```
shell
```
.\
\paddlex_inference\\detector.exe --model_dir=D:\\projects\\inference_model --image_list=D:\\images\
\image_list.txt --use_gpu=1 --save_dir=output --batch_size=2 --thread_num=2
.\
paddlex_inference\detector.exe --model_dir=D:\projects\inference_model --image_list=D:\images
\image_list.txt --use_gpu=1 --save_dir=output --batch_size=2 --thread_num=2
```
```
图片文件`
可视化预测结果
`会保存在`
save_dir
`参数设置的目录下。
图片文件`
可视化预测结果
`会保存在`
save_dir
`参数设置的目录下。
### 样例三:(使用加密后的模型对单张图片进行预测)
如果未对模型进行加密,请参考[加密PaddleX模型](../encryption.html#paddlex)对模型进行加密。例如加密后的模型所在目录为`
D:
\p
rojects
\e
ncrypted_inference_model
`。
```
.\paddlex_inference\detector.exe --model_dir=D:\projects\encrypted_inference_model --image=D:\images\xiaoduxiong.jpeg --save_dir=output --key=kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=
```
`
--key
`传入加密工具输出的密钥,例如`
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=
`, 图片文件可视化预测结果会保存在`
save_dir
`
参数设置的目录下。
docs/tutorials/deploy/deploy_server/encryption.md
浏览文件 @
1c273121
...
@@ -42,7 +42,7 @@ PaddleX提供一个轻量级的模型加密部署方案,通过PaddleX内置的
...
@@ -42,7 +42,7 @@ PaddleX提供一个轻量级的模型加密部署方案,通过PaddleX内置的
[
Linux版本 PaddleX模型加密工具
](
https://bj.bcebos.com/paddlex/tools/paddlex-encryption.zip
)
,编译脚本会自动下载该版本加密工具,您也可以选择手动下载。
[
Linux版本 PaddleX模型加密工具
](
https://bj.bcebos.com/paddlex/tools/paddlex-encryption.zip
)
,编译脚本会自动下载该版本加密工具,您也可以选择手动下载。
[
Windows版本 PaddleX模型加密工具
](
https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip
)
,该版本加密工具需手动下载。
[
Windows版本 PaddleX模型加密工具
](
https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip
)
,该版本加密工具需手动下载
,如果您在使用Visual Studio 2019编译C++预测代码的过程中已经下载过该工具,此处可不必重复下载
。
Linux加密工具包含内容为:
Linux加密工具包含内容为:
```
```
...
@@ -68,16 +68,16 @@ paddlex-encryption
...
@@ -68,16 +68,16 @@ paddlex-encryption
对模型完成加密后,加密工具会产生随机密钥信息(用于AES加解密使用),需要在后续加密部署时传入该密钥来用于解密。
对模型完成加密后,加密工具会产生随机密钥信息(用于AES加解密使用),需要在后续加密部署时传入该密钥来用于解密。
> 密钥由32字节key + 16字节iv组成, 注意这里产生的key是经过base64编码后的,这样可以扩充key的选取范围
> 密钥由32字节key + 16字节iv组成, 注意这里产生的key是经过base64编码后的,这样可以扩充key的选取范围
Linux:
Linux
平台
:
```
```
# 假设模型在/root/projects下
# 假设模型在/root/projects下
./paddlex-encryption/tool/paddlex_encrypt_tool -model_dir /root/projects/paddlex_inference_model -save_dir /root/projects/paddlex_encrypted_model
./paddlex-encryption/tool/paddlex_encrypt_tool -model_dir /root/projects/paddlex_inference_model -save_dir /root/projects/paddlex_encrypted_model
```
```
Windows:
Windows
平台
:
```
```
# 假设模型在D:/projects下
# 假设模型在D:/projects下
.\paddlex-encryption\tool\paddlex_encrypt_tool.exe -model_dir D:\
\projects\\paddlex_inference_model -save_dir D:\\projects\
\paddlex_encrypted_model
.\paddlex-encryption\tool\paddlex_encrypt_tool.exe -model_dir D:\
projects\paddlex_inference_model -save_dir D:\projects
\paddlex_encrypted_model
```
```
`-model_dir`
用于指定inference模型路径(参考
[
导出inference模型
](
deploy_python.html#inference
)
将模型导出为inference格式模型),可使用
[
导出小度熊识别模型
](
deploy_python.html#inference
)
中导出的
`inference_model`
。加密完成后,加密过的模型会保存至指定的
`-save_dir`
下,包含
`__model__.encrypted`
、
`__params__.encrypted`
和
`model.yml`
三个文件,同时生成密钥信息,命令输出如下图所示,密钥为
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
`-model_dir`
用于指定inference模型路径(参考
[
导出inference模型
](
deploy_python.html#inference
)
将模型导出为inference格式模型),可使用
[
导出小度熊识别模型
](
deploy_python.html#inference
)
中导出的
`inference_model`
。加密完成后,加密过的模型会保存至指定的
`-save_dir`
下,包含
`__model__.encrypted`
、
`__params__.encrypted`
和
`model.yml`
三个文件,同时生成密钥信息,命令输出如下图所示,密钥为
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
...
@@ -103,21 +103,21 @@ Windows:
...
@@ -103,21 +103,21 @@ Windows:
| thread_num | 预测的线程数,默认为cpu处理器个数 |
| thread_num | 预测的线程数,默认为cpu处理器个数 |
## 样例
##
#
样例
可使用
[
导出小度熊识别模型
](
deploy_python.md#inference
)
中的测试图片进行预测。
可使用
[
导出小度熊识别模型
](
deploy_python.md#inference
)
中的测试图片进行预测。
`样例一`
:
#### 样例一
:
不使用
`GPU`
测试图片
`/root/projects/images/xiaoduxiong.jpeg`
不使用
`GPU`
测试图片
`/root/projects/images/xiaoduxiong.jpeg`
```
shell
```
shell
./build/demo/detector
--model_dir
=
/root/projects/
inference
_model
--image
=
/root/projects/xiaoduxiong.jpeg
--save_dir
=
output
--key
=
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c
=
./build/demo/detector
--model_dir
=
/root/projects/
paddlex_encrypted
_model
--image
=
/root/projects/xiaoduxiong.jpeg
--save_dir
=
output
--key
=
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c
=
```
```
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
`样例二`
:
#### 样例二
:
使用
`GPU`
预测多个图片
`/root/projects/image_list.txt`
,image_list.txt内容的格式如下:
使用
`GPU`
预测多个图片
`/root/projects/image_list.txt`
,image_list.txt内容的格式如下:
```
```
...
@@ -127,37 +127,40 @@ Windows:
...
@@ -127,37 +127,40 @@ Windows:
/root/projects/xiaoduxiongn.jpeg
/root/projects/xiaoduxiongn.jpeg
```
```
```
shell
```
shell
./build/demo/detector
--model_dir
=
/root/projects/models/
inference
_model
--image_list
=
/root/projects/images_list.txt
--use_gpu
=
1
--save_dir
=
output
--key
=
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c
=
./build/demo/detector
--model_dir
=
/root/projects/models/
paddlex_encrypted
_model
--image_list
=
/root/projects/images_list.txt
--use_gpu
=
1
--save_dir
=
output
--key
=
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c
=
```
```
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
### 2.2 Windows平台使用
### 2.2 Windows平台使用
参考
[
Windows平台编译指南
](
deploy_cpp/deploy_cpp_win_vs2019.md
)
。需自行下载Windows版PaddleX加密工具压缩包,解压,在编译指南的编译流程基础上,在CMake设置中勾选WITH_ENCRYPTION,ENCRYPTION_DIR填写为加密工具包解压后的目录,再进行编译。参数与Linux版本预测部署一致。预测demo的入口程序为paddlex_inference
\d
etector.exe,paddlex_inference
\c
lassifier.exe,paddlex_inference
\s
egmenter.exe。
参考
[
Windows平台编译指南
](
deploy_cpp/deploy_cpp_win_vs2019.md
)
。需自行下载Windows版PaddleX加密工具压缩包,解压,在编译指南的编译流程基础上,在CMake设置中勾选WITH_ENCRYPTION,ENCRYPTION_DIR填写为加密工具包解压后的目录,再进行编译。参数与Linux版本预测部署一致。预测demo的入口程序为paddlex_inference
\d
etector.exe,paddlex_inference
\c
lassifier.exe,paddlex_inference
\s
egmenter.exe。
## 样例
##
#
样例
可使用
[
导出小度熊识别模型
](
deploy_python.md#inference
)
中的测试图片进行预测。
可使用
[
导出小度熊识别模型
](
deploy_python.md#inference
)
中的测试图片进行预测。
`样例一`
:
#### 样例一
:
不使用
`GPU`
测试
图片
`D:\\images\\xiaoduxiong.jpeg`
不使用
`GPU`
测试
单张图片,例如图片为
`D:\images\xiaoduxiong.jpeg`
,加密后的模型目录为
`D:\projects\paddlex_encrypted_model`
```
shell
```
shell
.
\
\
paddlex_inference
\\
detector.exe
--model_dir
=
D:
\\
projects
\\
inference_model
--image
=
D:
\\
images
\
\
xiaoduxiong.jpeg
--save_dir
=
output
--key
=
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c
=
.
\
p
addlex_inference
\d
etector.exe
--model_dir
=
D:
\p
rojects
\p
addlex_encrypted_model
--image
=
D:
\i
mages
\x
iaoduxiong.jpeg
--save_dir
=
output
--key
=
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c
=
```
```
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
`样例二`
:
#### 样例二
:
使用
`GPU`
预测
多个图片
`D:\\projects\\image_list.txt`
,image_list.txt内容的格式
如下:
使用
`GPU`
预测
图片列表,例如图片列表为
`D:\projects\image_list.txt`
,
`image_list.txt`
的内容
如下:
```
```
D:\
\projects\\images\
\xiaoduxiong1.jpeg
D:\
projects\images
\xiaoduxiong1.jpeg
D:\
\projects\\images\
\xiaoduxiong2.jpeg
D:\
projects\images
\xiaoduxiong2.jpeg
...
...
D:\
\projects\\images\
\xiaoduxiongn.jpeg
D:\
projects\images
\xiaoduxiongn.jpeg
```
```
```
shell
.
\\
paddlex_inference
\\
detector.exe
--model_dir
=
D:
\\
projects
\\
inference_encrypted_model
--image_list
=
D:
\\
projects
\\
images_list.txt
--use_gpu
=
1
--save_dir
=
output
--key
=
kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c
=
加密后的模型目录例如为
`D:\projects\paddlex_encrypted_model`
```
.\paddlex_inference\detector.exe --model_dir=D:\projects\paddlex_encrypted_model --image_list=D:\projects\images_list.txt --use_gpu=1 --save_dir=output --key=kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=
```
```
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
`--key`
传入加密工具输出的密钥,例如
`kLAl1qOs5uRbFt0/RrIDTZW2+tOf5bzvUIaHGF8lJ1c=`
, 图片文件
`可视化预测结果`
会保存在
`save_dir`
参数设置的目录下。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录