Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
eea897d2
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
大约 1 年 前同步成功
通知
115
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
eea897d2
编写于
6月 15, 2022
作者:
H
HydrogenSulfate
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
polish test_serving* docs
上级
8641aed6
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
35 addition
and
27 deletion
+35
-27
test_tipc/docs/test_serving_infer_cpp.md
test_tipc/docs/test_serving_infer_cpp.md
+19
-12
test_tipc/docs/test_serving_infer_python.md
test_tipc/docs/test_serving_infer_python.md
+13
-12
test_tipc/test_serving_infer_cpp.sh
test_tipc/test_serving_infer_cpp.sh
+2
-2
test_tipc/test_serving_infer_python.sh
test_tipc/test_serving_infer_python.sh
+1
-1
未找到文件。
test_tipc/docs/test_serving_infer_cpp.md
浏览文件 @
eea897d2
...
@@ -38,18 +38,25 @@ Linux GPU/CPU C++ 服务化部署测试的主程序为`test_serving_infer_cpp.sh
...
@@ -38,18 +38,25 @@ Linux GPU/CPU C++ 服务化部署测试的主程序为`test_serving_infer_cpp.sh
-
安装PaddlePaddle:如果您已经安装了2.2或者以上版本的paddlepaddle,那么无需运行下面的命令安装paddlepaddle。
-
安装PaddlePaddle:如果您已经安装了2.2或者以上版本的paddlepaddle,那么无需运行下面的命令安装paddlepaddle。
```
shell
```
shell
# 需要安装2.2及以上版本的Paddle
# 需要安装2.2及以上版本的Paddle
# 安装GPU版本的Paddle
# 安装GPU版本的Paddle
python3.7
-m
pip
install
paddlepaddle-gpu
==
2.2.0
python3.7
-m
pip
install
paddlepaddle-gpu
==
2.2.0
# 安装CPU版本的Paddle
# 安装CPU版本的Paddle
python3.7
-m
pip
install
paddlepaddle
==
2.2.0
python3.7
-m
pip
install
paddlepaddle
==
2.2.0
```
```
-
安装依赖
-
安装依赖
```
shell
```
shell
python3.7
-m
pip
install
-r
requirements.txt
python3.7
-m
pip
install
-r
requirements.txt
```
```
-
安装TensorRT
编译 serving-server 的脚本内会设置
`TENSORRT_LIBRARY_PATH`
这一环境变量,因此编译前需要安装TensorRT。
如果使用
`registry.baidubce.com/paddlepaddle/paddle:latest-dev-cuda10.1-cudnn7-gcc82`
镜像进测试,则已自带TensorRT无需安装,
否则可以参考
[
3.2 安装TensorRT
](
install.md#32-安装tensorrt
)
进行安装,并在修改
[
build_server.sh
](
../../deploy/paddleserving/build_server.sh#L62
)
的
`TENSORRT_LIBRARY_PATH`
地址为安装后的路径。
-
安装 PaddleServing 相关组件,包括serving_client、serving-app,自动编译并安装带自定义OP的 serving_server 包,以及自动下载并解压推理模型
-
安装 PaddleServing 相关组件,包括serving_client、serving-app,自动编译并安装带自定义OP的 serving_server 包,以及自动下载并解压推理模型
```
bash
```
bash
# 安装必要依赖包
# 安装必要依赖包
...
@@ -73,14 +80,14 @@ Linux GPU/CPU C++ 服务化部署测试的主程序为`test_serving_infer_cpp.sh
...
@@ -73,14 +80,14 @@ Linux GPU/CPU C++ 服务化部署测试的主程序为`test_serving_infer_cpp.sh
测试方法如下所示,希望测试不同的模型文件,只需更换为自己的参数配置文件,即可完成对应模型的测试。
测试方法如下所示,希望测试不同的模型文件,只需更换为自己的参数配置文件,即可完成对应模型的测试。
```
bash
```
bash
bash test_tipc/test_serving_infer_cpp.sh
${
your_params_file
}
bash test_tipc/test_serving_infer_cpp.sh
${
your_params_file
}
${
mode
}
```
```
以
`PPLCNet_x1_0`
的
`Linux GPU/CPU C++ 服务化部署测试`
为例,命令如下所示。
以
`PPLCNet_x1_0`
的
`Linux GPU/CPU C++ 服务化部署测试`
为例,命令如下所示。
```
bash
```
bash
bash test_tipc/test_serving_infer_cpp.sh test_tipc/configs/PPLCNet/PPLCNet_x1_0_linux_gpu_normal_normal_serving_cpp_linux_gpu_cpu.txt
bash test_tipc/test_serving_infer_cpp.sh test_tipc/configs/PPLCNet/PPLCNet_x1_0_linux_gpu_normal_normal_serving_cpp_linux_gpu_cpu.txt
serving_infer
```
```
输出结果如下,表示命令运行成功。
输出结果如下,表示命令运行成功。
...
...
test_tipc/docs/test_serving_infer_python.md
浏览文件 @
eea897d2
...
@@ -38,18 +38,19 @@ Linux GPU/CPU PYTHON 服务化部署测试的主程序为`test_serving_infer_pyt
...
@@ -38,18 +38,19 @@ Linux GPU/CPU PYTHON 服务化部署测试的主程序为`test_serving_infer_pyt
-
安装PaddlePaddle:如果您已经安装了2.2或者以上版本的paddlepaddle,那么无需运行下面的命令安装paddlepaddle。
-
安装PaddlePaddle:如果您已经安装了2.2或者以上版本的paddlepaddle,那么无需运行下面的命令安装paddlepaddle。
```
shell
```
shell
# 需要安装2.2及以上版本的Paddle
# 需要安装2.2及以上版本的Paddle
# 安装GPU版本的Paddle
# 安装GPU版本的Paddle
python3.7
-m
pip
install
paddlepaddle-gpu
==
2.2.0
python3.7
-m
pip
install
paddlepaddle-gpu
==
2.2.0
# 安装CPU版本的Paddle
# 安装CPU版本的Paddle
python3.7
-m
pip
install
paddlepaddle
==
2.2.0
python3.7
-m
pip
install
paddlepaddle
==
2.2.0
```
```
-
安装依赖
-
安装依赖
```
shell
```
shell
python3.7
-m
pip
install
-r
requirements.txt
python3.7
-m
pip
install
-r
requirements.txt
```
```
-
安装 PaddleServing 相关组件,包括serving-server、serving_client、serving-app,自动下载并解压推理模型
-
安装 PaddleServing 相关组件,包括serving-server、serving_client、serving-app,自动下载并解压推理模型
```
bash
```
bash
# 安装必要依赖包
# 安装必要依赖包
...
@@ -69,14 +70,14 @@ Linux GPU/CPU PYTHON 服务化部署测试的主程序为`test_serving_infer_pyt
...
@@ -69,14 +70,14 @@ Linux GPU/CPU PYTHON 服务化部署测试的主程序为`test_serving_infer_pyt
测试方法如下所示,希望测试不同的模型文件,只需更换为自己的参数配置文件,即可完成对应模型的测试。
测试方法如下所示,希望测试不同的模型文件,只需更换为自己的参数配置文件,即可完成对应模型的测试。
```
bash
```
bash
bash test_tipc/test_serving_infer_python.sh
${
your_params_file
}
bash test_tipc/test_serving_infer_python.sh
${
your_params_file
}
${
mode
}
```
```
以
`ResNet50`
的
`Linux GPU/CPU PYTHON 服务化部署测试`
为例,命令如下所示。
以
`ResNet50`
的
`Linux GPU/CPU PYTHON 服务化部署测试`
为例,命令如下所示。
```
bash
```
bash
bash test_tipc/test_serving_infer_python.sh test_tipc/configs/ResNet50/ResNet50_linux_gpu_normal_normal_serving_python_linux_gpu_cpu.txt
bash test_tipc/test_serving_infer_python.sh test_tipc/configs/ResNet50/ResNet50_linux_gpu_normal_normal_serving_python_linux_gpu_cpu.txt
serving_infer
```
```
输出结果如下,表示命令运行成功。
输出结果如下,表示命令运行成功。
...
...
test_tipc/test_serving_infer_cpp.sh
浏览文件 @
eea897d2
...
@@ -211,7 +211,7 @@ function func_serving_rec(){
...
@@ -211,7 +211,7 @@ function func_serving_rec(){
unset
https_proxy
unset
https_proxy
unset
http_proxy
unset
http_proxy
export
SERVING_BIN
=
${
PWD
}
/../Serving/server-build-gpu-opencv/core/general-server/serving
#
export SERVING_BIN=${PWD}/../Serving/server-build-gpu-opencv/core/general-server/serving
for
use_gpu
in
${
web_use_gpu_list
[*]
}
;
do
for
use_gpu
in
${
web_use_gpu_list
[*]
}
;
do
if
[
${
use_gpu
}
=
"null"
]
;
then
if
[
${
use_gpu
}
=
"null"
]
;
then
det_serving_server_dir_name
=
$(
func_get_url_file_name
"
$det_serving_server_value
"
)
det_serving_server_dir_name
=
$(
func_get_url_file_name
"
$det_serving_server_value
"
)
...
@@ -249,7 +249,7 @@ function func_serving_rec(){
...
@@ -249,7 +249,7 @@ function func_serving_rec(){
# set cuda device
# set cuda device
GPUID
=
$
2
GPUID
=
$
3
if
[
${#
GPUID
}
-le
0
]
;
then
if
[
${#
GPUID
}
-le
0
]
;
then
env
=
"export CUDA_VISIBLE_DEVICES=0"
env
=
"export CUDA_VISIBLE_DEVICES=0"
else
else
...
...
test_tipc/test_serving_infer_python.sh
浏览文件 @
eea897d2
...
@@ -296,7 +296,7 @@ function func_serving_rec(){
...
@@ -296,7 +296,7 @@ function func_serving_rec(){
# set cuda device
# set cuda device
GPUID
=
$
2
GPUID
=
$
3
if
[
${#
GPUID
}
-le
0
]
;
then
if
[
${#
GPUID
}
-le
0
]
;
then
env
=
"export CUDA_VISIBLE_DEVICES=0"
env
=
"export CUDA_VISIBLE_DEVICES=0"
else
else
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录