Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
e3e991ad
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
接近 2 年 前同步成功
通知
116
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
e3e991ad
编写于
9月 07, 2021
作者:
B
Bin Lu
提交者:
GitHub
9月 07, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update README_CN.md
上级
3243fd8b
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
29 addition
and
8 deletion
+29
-8
deploy/paddleserving/README_CN.md
deploy/paddleserving/README_CN.md
+29
-8
未找到文件。
deploy/paddleserving/README_CN.md
浏览文件 @
e3e991ad
...
@@ -27,9 +27,9 @@ PaddleClas提供2种服务部署方式:
...
@@ -27,9 +27,9 @@ PaddleClas提供2种服务部署方式:
<a
name=
"环境准备"
></a>
<a
name=
"环境准备"
></a>
## 环境准备
## 环境准备
需要准备PaddleClas的运行环境和Paddle
Serving的运行环境。
需要准备PaddleClas的运行环境和PaddleServing的运行环境。
-
准备Paddle
OCR
的运行环境
[
链接
](
../../doc/doc_ch/installation.md
)
-
准备Paddle
Clas
的运行环境
[
链接
](
../../doc/doc_ch/installation.md
)
根据环境下载对应的paddle whl包,推荐安装2.0.1版本
根据环境下载对应的paddle whl包,推荐安装2.0.1版本
-
准备PaddleServing的运行环境,步骤如下
-
准备PaddleServing的运行环境,步骤如下
...
@@ -62,19 +62,19 @@ PaddleClas提供2种服务部署方式:
...
@@ -62,19 +62,19 @@ PaddleClas提供2种服务部署方式:
使用PaddleServing做服务化部署时,需要将保存的inference模型转换为serving易于部署的模型。
使用PaddleServing做服务化部署时,需要将保存的inference模型转换为serving易于部署的模型。
首先,下载ResNet50_vd的
[
inference模型
](
https://github.com/PaddlePaddle/PaddleOCR#pp-ocr-20-series-model-listupdate-on-dec-15
)
首先,下载ResNet50_vd的
inference模型
```
```
# 下载并解压ResNet50_vd模型
# 下载并解压ResNet50_vd模型
wget
"https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/ResNet50_vd_infer.tar"
&& tar xf ResNet50_vd_infer.tar
wget
https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/ResNet50_vd_infer.tar
&& tar xf ResNet50_vd_infer.tar
```
```
接下来,用安装的paddle_serving_client把下载的inference模型转换成易于server部署的模型格式。
接下来,用安装的paddle_serving_client把下载的inference模型转换成易于server部署的模型格式。
```
```
# 转换ResNet50_vd模型
# 转换ResNet50_vd模型
python3 -m paddle_serving_client.convert --dirname ./
inference
/ \
python3 -m paddle_serving_client.convert --dirname ./
ResNet50_vd_infer
/ \
--model_filename inference.pdmodel \
\
--model_filename inference.pdmodel \
--params_filename inference.pdiparams \
\
--params_filename inference.pdiparams \
--serving_server ./ResNet50_vd_serving/ \
--serving_server ./ResNet50_vd_serving/ \
--serving_client ./ResNet50_vd_client/
--serving_client ./ResNet50_vd_client/
```
```
...
@@ -91,6 +91,26 @@ python3 -m paddle_serving_client.convert --dirname ./inference/ \
...
@@ -91,6 +91,26 @@ python3 -m paddle_serving_client.convert --dirname ./inference/ \
|- serving_client_conf.stream.prototxt
|- serving_client_conf.stream.prototxt
```
```
得到模型文件之后,需要修改serving_server_conf.prototxt中的alias名字: 将
`feed_var`
中的
`alias_name`
改为
`image`
, 将
`fetch_var`
中的
`alias_name`
改为
`prediction`
,
修改后的serving_server_conf.prototxt内容如下:
```
feed_var {
name: "inputs"
alias_name: "image"
is_lod_tensor: false
feed_type: 1
shape: 3
shape: 224
shape: 224
}
fetch_var {
name: "save_infer_model/scale_0.tmp_1"
alias_name: "prediction"
is_lod_tensor: true
fetch_type: 1
shape: -1
}
```
<a
name=
"部署"
></a>
<a
name=
"部署"
></a>
## Paddle Serving pipeline部署
## Paddle Serving pipeline部署
...
@@ -126,12 +146,13 @@ python3 -m paddle_serving_client.convert --dirname ./inference/ \
...
@@ -126,12 +146,13 @@ python3 -m paddle_serving_client.convert --dirname ./inference/ \
成功运行后,模型预测的结果会打印在cmd窗口中,结果示例为:
成功运行后,模型预测的结果会打印在cmd窗口中,结果示例为:
!
[](
./imgs/results.png
)
!
[](
./imgs/results.png
)
调整 config.yml 中的并发个数
获得最大的QPS, 一般检测和识别的并发数为2:1
调整 config.yml 中的并发个数
可以获得最大的QPS
```
```
op:
op:
#并发数,is_thread_op=True时,为线程并发;否则为进程并发
#并发数,is_thread_op=True时,为线程并发;否则为进程并发
concurrency: 8
concurrency: 8
...
...
```
有需要的话可以同时发送多个服务请求
有需要的话可以同时发送多个服务请求
预测性能数据会被自动写入 `PipelineServingLogs/pipeline.tracer` 文件中。
预测性能数据会被自动写入 `PipelineServingLogs/pipeline.tracer` 文件中。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录