Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Serving
提交
6561b36c
S
Serving
项目概览
PaddlePaddle
/
Serving
大约 1 年 前同步成功
通知
185
Star
833
Fork
253
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
105
列表
看板
标记
里程碑
合并请求
10
Wiki
2
Wiki
分析
仓库
DevOps
项目成员
Pages
S
Serving
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
105
Issue
105
列表
看板
标记
里程碑
合并请求
10
合并请求
10
Pages
分析
分析
仓库分析
DevOps
Wiki
2
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
提交
6561b36c
编写于
3月 31, 2020
作者:
D
Dong Daxiang
提交者:
GitHub
3月 31, 2020
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #365 from MRXLT/0.2.0-doc
update timeline doc
上级
f4d7e002
fe362809
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
4 addition
and
2 deletion
+4
-2
doc/timeline-example.png
doc/timeline-example.png
+0
-0
python/examples/util/README.md
python/examples/util/README.md
+4
-2
未找到文件。
doc/timeline-example.png
查看替换文件 @
f4d7e002
浏览文件 @
6561b36c
300.6 KB
|
W:
|
H:
272.3 KB
|
W:
|
H:
2-up
Swipe
Onion skin
python/examples/util/README.md
浏览文件 @
6561b36c
## Timeline工具使用
## Timeline工具使用
serving框架中内置了预测服务中各阶段时间打点的功能,
通过环境变量来控制是否开启
。
serving框架中内置了预测服务中各阶段时间打点的功能,
在client端通过环境变量来控制是否开启,开启后会将打点信息输出到屏幕
。
```
```
export FLAGS_profile_client=1 #开启client端各阶段时间打点
export FLAGS_profile_client=1 #开启client端各阶段时间打点
export FLAGS_profile_server=1 #开启server端各阶段时间打点
export FLAGS_profile_server=1 #开启server端各阶段时间打点
...
@@ -13,6 +13,8 @@ export FLAGS_profile_server=1 #开启server端各阶段时间打点
...
@@ -13,6 +13,8 @@ export FLAGS_profile_server=1 #开启server端各阶段时间打点
```
```
python show_profile.py profile ${thread_num}
python show_profile.py profile ${thread_num}
```
```
这里thread_num参数为client运行时的进程数,脚本将按照这个参数来计算各阶段的平均耗时。
脚本将计算各阶段的耗时,并除以线程数做平均,打印到标准输出。
脚本将计算各阶段的耗时,并除以线程数做平均,打印到标准输出。
```
```
...
@@ -22,6 +24,6 @@ python timeline_trace.py profile trace
...
@@ -22,6 +24,6 @@ python timeline_trace.py profile trace
具体操作:打开chrome浏览器,在地址栏输入chrome://tracing/,跳转至tracing页面,点击load按钮,打开保存的trace文件,即可将预测服务的各阶段时间信息可视化。
具体操作:打开chrome浏览器,在地址栏输入chrome://tracing/,跳转至tracing页面,点击load按钮,打开保存的trace文件,即可将预测服务的各阶段时间信息可视化。
效果如下图,图中展示了
client端启动4进程时的bert示例的各阶段timeline,其中bert_pre代表client端的数据预处理阶段,client_infer代表client完成预测请求的发送和接收结果的阶段
,每个进进程的第二行展示的是server各个op的timeline。
效果如下图,图中展示了
使用
[
bert示例
](
https://github.com/PaddlePaddle/Serving/tree/develop/python/examples/bert
)
的GPU预测服务,server端开启4卡预测,client端启动4进程,batch size为1时的各阶段timeline,其中bert_pre代表client端的数据预处理阶段,client_infer代表client完成预测请求的发送和接收结果的阶段,图中的process代表的是client的进程号
,每个进进程的第二行展示的是server各个op的timeline。
![
timeline
](
../../../doc/timeline-example.png
)
![
timeline
](
../../../doc/timeline-example.png
)
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录