Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Serving
提交
5c836281
S
Serving
项目概览
PaddlePaddle
/
Serving
大约 1 年 前同步成功
通知
186
Star
833
Fork
253
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
105
列表
看板
标记
里程碑
合并请求
10
Wiki
2
Wiki
分析
仓库
DevOps
项目成员
Pages
S
Serving
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
105
Issue
105
列表
看板
标记
里程碑
合并请求
10
合并请求
10
Pages
分析
分析
仓库分析
DevOps
Wiki
2
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
5c836281
编写于
4月 03, 2019
作者:
W
wangguibao
浏览文件
操作
浏览文件
下载
差异文件
Merge branch 'icode'
Change-Id: I7595f0b5ffb0f871f9a683344625ced4937ee93a
上级
c09391bb
fc4a39f4
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
40 addition
and
3 deletion
+40
-3
doc/BENCHMARKING.md
doc/BENCHMARKING.md
+40
-3
未找到文件。
doc/BENCHMARKING.md
浏览文件 @
5c836281
本文以文本分类任务为例搭建Serving预测服务,给出Serving框架性能数据:
1) 不同模型下预测服务响应时间、QPS、准确率等指标和单机模式的对比
1) 不同模型下预测服务
单线程
响应时间、QPS、准确率等指标和单机模式的对比
2) 不同模型下Serving扩展能力对比
...
...
@@ -10,7 +10,9 @@
下图是一个对serving请求的耗时阶段的不完整分析。图中对brpc的开销,只列出了bthread创建和启动开销。
![](
http://wiki.baidu.com/download/attachments/724028035/serving-timings.png?version=1&modificationDate=1553657169000&api=v2
)
![](
http://paddle-serving.bj.bcebos.com/doc/serving-timings.png
)
(右键在新窗口中浏览大图)
试与单机模式对比:
...
...
@@ -40,7 +42,16 @@
**为了验证上述假设,文本分类任务的serving模式测试,需要在几个不同模型上分别进行,分别记录serving模式下,client端吞吐量的变化情况。**
# 2. 测试环境
# 2. 测试任务和测试环境
## 2.1 测试任务
文本分类的三种常见模型:BOW, CNN, LSTM
**Batch Size: 本实验中所有请求的batch size均为50**
## 2.2 测试环境
| | CPU型号、核数 | 内存 |
| --- | --- | --- |
...
...
@@ -49,6 +60,7 @@
Serving端与Client端通信时延:0.102 ms
# 3. 预测服务单线程响应时间、QPS、准确率等指标与单机模式的对比
本测试用来确定Serving的准确率、QPS和响应时间等指标与单机模式相比是否无明显异常
...
...
@@ -270,6 +282,8 @@ Serving扩展能力的测试是指,在不同模型上:
![](
https://paddle-serving.bj.bcebos.com/doc/qps-threads-bow.png
)
(右键在新窗口中浏览大图)
## 4.2 CNN模型
### Serving 4线程
...
...
@@ -426,6 +440,8 @@ Serving扩展能力的测试是指,在不同模型上:
![](
https://paddle-serving.bj.bcebos.com/doc/qps-threads-cnn.png
)
(右键在新窗口中浏览大图)
## 4.3 LSTM模型
### Serving 4线程
...
...
@@ -582,6 +598,8 @@ Serving扩展能力的测试是指,在不同模型上:
![](
https://paddle-serving.bj.bcebos.com/doc/qps-threads-lstm.png
)
(右键在新窗口中浏览大图)
# 6. 净开销测试
本测试是为了描画引入Serving框架后,在Serving端空转的情况下,每query消耗的时间,也就是框架引入的开销。
...
...
@@ -593,3 +611,22 @@ Serving扩展能力的测试是指,在不同模型上:
| BOW | 1 |
| CNN | 1 |
| LSTM | 1 |
# 7.结论
## 7.1 单线程模式下准确率和QPS等指标与单机模式对比
准确率:Serving模式下与单机模式下预测准确率一致
QPS:与模型特点有关:当模型预测时间极短时,Serving框架本身的开销和网络通信固定时间在单次请求中的时间占比占了绝大部分,这导致Serving模式下的QPS与单机模式相比下降明显;当预测时间较长,Serving框架开销和网络通信时间在单次请求中的占比较小,Serving模式下QPS与单机模式下相差不多。
## 7.2 Serving扩展能力
当模型较为复杂时(以上述实验中CNN和LSTM模型为例),Paddle Serving能够提供较好的线性扩展能力;当模型是简单模型(以上述实验中BOW模型为例),随着serving端线程数的增加,qps的增长趋势较为杂乱,看不出明显的线性趋势。猜测是因为预测时间较短,而线程切换、框架本身的开销等占了大头,导致虽然随着线程数增加,qps也有增长,但当并发数增大时,qps反而出现下降。
## 7.3 净开销测试
本测试用来估计框架本身带来的时间消耗。
在Serving模式下,框架引入的时间开销较小,约为1ms。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录