Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
7f6898fa
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
7f6898fa
编写于
5月 19, 2020
作者:
F
FlyingQianMM
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
set with_encrypt to true
上级
f7d9b7fb
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
55 addition
and
44 deletion
+55
-44
deploy/cpp/scripts/bootstrap.sh
deploy/cpp/scripts/bootstrap.sh
+8
-0
deploy/cpp/scripts/build.sh
deploy/cpp/scripts/build.sh
+45
-44
deploy/cpp/src/paddlex.cpp
deploy/cpp/src/paddlex.cpp
+2
-0
未找到文件。
deploy/cpp/scripts/bootstrap.sh
浏览文件 @
7f6898fa
# download pre-compiled paddle encrypt
ENCRYPTION_URL
=
https://bj.bcebos.com/paddlex/tools/paddlex-encryption.zip
if
[
!
-d
"./paddlex-encryption"
]
;
then
wget
-c
${
ENCRYPTION_URL
}
unzip paddlex-encryption.zip
rm
-rf
paddlex-encryption.zip
fi
# download pre-compiled opencv lib
OPENCV_URL
=
https://paddleseg.bj.bcebos.com/deploy/docker/opencv3gcc4.8.tar.bz2
if
[
!
-d
"./deps/opencv3gcc4.8"
]
;
then
...
...
deploy/cpp/scripts/build.sh
浏览文件 @
7f6898fa
# 是否使用GPU(即是否使用 CUDA)
WITH_GPU
=
OFF
# 使用MKL or openblas
WITH_MKL
=
ON
# 是否集成 TensorRT(仅WITH_GPU=ON 有效)
WITH_TENSORRT
=
OFF
# TensorRT 的lib路径
TENSORRT_DIR
=
/path/to/TensorRT/
# Paddle 预测库路径
PADDLE_DIR
=
/path/to/fluid_inference/
# Paddle 的预测库是否使用静态库来编译
# 使用TensorRT时,Paddle的预测库通常为动态库
WITH_STATIC_LIB
=
OFF
# CUDA 的 lib 路径
CUDA_LIB
=
/path/to/cuda/lib/
# CUDNN 的 lib 路径
CUDNN_LIB
=
/path/to/cudnn/lib/
# 是否加载加密后的模型
WITH_ENCRYPTION
=
OFF
# 加密工具的路径
ENCRYPTION_DIR
=
/path/to/encryption_tool/
# OPENCV 路径, 如果使用自带预编译版本可不修改
OPENCV_DIR
=
$(
pwd
)
/deps/opencv3gcc4.8/
sh
$(
pwd
)
/scripts/bootstrap.sh
# 以下无需改动
rm
-rf
build
mkdir
-p
build
cd
build
cmake ..
\
-DWITH_GPU
=
${
WITH_GPU
}
\
-DWITH_MKL
=
${
WITH_MKL
}
\
-DWITH_TENSORRT
=
${
WITH_TENSORRT
}
\
-DWITH_ENCRYPTION
=
${
WITH_ENCRYPTION
}
\
-DTENSORRT_DIR
=
${
TENSORRT_DIR
}
\
-DPADDLE_DIR
=
${
PADDLE_DIR
}
\
-DWITH_STATIC_LIB
=
${
WITH_STATIC_LIB
}
\
-DCUDA_LIB
=
${
CUDA_LIB
}
\
-DCUDNN_LIB
=
${
CUDNN_LIB
}
\
-DENCRYPTION_DIR
=
${
ENCRYPTION_DIR
}
\
-DOPENCV_DIR
=
${
OPENCV_DIR
}
make
# 是否使用GPU(即是否使用 CUDA)
WITH_GPU
=
OFF
# 使用MKL or openblas
WITH_MKL
=
ON
# 是否集成 TensorRT(仅WITH_GPU=ON 有效)
WITH_TENSORRT
=
OFF
# TensorRT 的路径
TENSORRT_DIR
=
/path/to/TensorRT/
# Paddle 预测库路径
PADDLE_DIR
=
/docker/jiangjiajun/PaddleDetection/deploy/cpp/fluid_inference
# Paddle 的预测库是否使用静态库来编译
# 使用TensorRT时,Paddle的预测库通常为动态库
WITH_STATIC_LIB
=
OFF
# CUDA 的 lib 路径
CUDA_LIB
=
/usr/local/cuda/lib64
# CUDNN 的 lib 路径
CUDNN_LIB
=
/usr/local/cuda/lib64
# 是否加载加密后的模型
WITH_ENCRYPTION
=
ON
# 加密工具的路径, 如果使用自带预编译版本可不修改
sh
$(
pwd
)
/scripts/bootstrap.sh
# 下载预编译版本的加密工具
ENCRYPTION_DIR
=
$(
pwd
)
/paddlex-encryption
# OPENCV 路径, 如果使用自带预编译版本可不修改
sh
$(
pwd
)
/scripts/bootstrap.sh
# 下载预编译版本的opencv
OPENCV_DIR
=
$(
pwd
)
/deps/opencv3gcc4.8/
# 以下无需改动
rm
-rf
build
mkdir
-p
build
cd
build
cmake ..
\
-DWITH_GPU
=
${
WITH_GPU
}
\
-DWITH_MKL
=
${
WITH_MKL
}
\
-DWITH_TENSORRT
=
${
WITH_TENSORRT
}
\
-DWITH_ENCRYPTION
=
${
WITH_ENCRYPTION
}
\
-DTENSORRT_DIR
=
${
TENSORRT_DIR
}
\
-DPADDLE_DIR
=
${
PADDLE_DIR
}
\
-DWITH_STATIC_LIB
=
${
WITH_STATIC_LIB
}
\
-DCUDA_LIB
=
${
CUDA_LIB
}
\
-DCUDNN_LIB
=
${
CUDNN_LIB
}
\
-DENCRYPTION_DIR
=
${
ENCRYPTION_DIR
}
\
-DOPENCV_DIR
=
${
OPENCV_DIR
}
make
deploy/cpp/src/paddlex.cpp
浏览文件 @
7f6898fa
...
...
@@ -31,6 +31,8 @@ void Model::create_predictor(const std::string& model_dir,
std
::
string
params_file
=
model_dir
+
OS_PATH_SEP
+
"__params__"
;
#ifdef WITH_ENCRYPTION
if
(
key
!=
""
){
model_file
=
model_dir
+
OS_PATH_SEP
+
"__model__.encrypted"
;
params_file
=
model_dir
+
OS_PATH_SEP
+
"__params__.encrypted"
;
paddle_security_load_model
(
&
config
,
key
.
c_str
(),
model_file
.
c_str
(),
params_file
.
c_str
());
}
#endif
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录