Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
BaiXuePrincess
Paddle
提交
c13805e9
P
Paddle
项目概览
BaiXuePrincess
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
c13805e9
编写于
12月 15, 2017
作者:
T
Tao Luo
提交者:
GitHub
12月 15, 2017
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #6636 from tensor-tang/mkl
add MKL Packed design doc for RNN optimazation
上级
d5cab4f0
c1a68707
变更
7
显示空白变更内容
内联
并排
Showing
7 changed file
with
95 addition
and
1 deletion
+95
-1
doc/design/mkl/image/engine.png
doc/design/mkl/image/engine.png
+0
-0
doc/design/mkl/image/gradients.png
doc/design/mkl/image/gradients.png
+0
-0
doc/design/mkl/image/layers.png
doc/design/mkl/image/layers.png
+0
-0
doc/design/mkl/image/matrix.png
doc/design/mkl/image/matrix.png
+0
-0
doc/design/mkl/image/overview.png
doc/design/mkl/image/overview.png
+0
-0
doc/design/mkl/mkl_packed.md
doc/design/mkl/mkl_packed.md
+95
-0
doc/design/mkl/mkldnn.md
doc/design/mkl/mkldnn.md
+0
-1
未找到文件。
doc/design/mkl
dnn
/image/engine.png
→
doc/design/mkl/image/engine.png
浏览文件 @
c13805e9
文件已移动
doc/design/mkl
dnn
/image/gradients.png
→
doc/design/mkl/image/gradients.png
浏览文件 @
c13805e9
文件已移动
doc/design/mkl
dnn
/image/layers.png
→
doc/design/mkl/image/layers.png
浏览文件 @
c13805e9
文件已移动
doc/design/mkl
dnn
/image/matrix.png
→
doc/design/mkl/image/matrix.png
浏览文件 @
c13805e9
文件已移动
doc/design/mkl
dnn
/image/overview.png
→
doc/design/mkl/image/overview.png
浏览文件 @
c13805e9
文件已移动
doc/design/mkl/mkl_packed.md
0 → 100644
浏览文件 @
c13805e9
# Intel® MKL Packed on PaddlePaddle: Design Doc
## Contents
-
[
Overview
](
#overview
)
-
[
Key Points
](
#key-points
)
-
[
Background
](
#background
)
-
[
Solution
](
#solution
)
-
[
Actions
](
#actions
)
-
[
CMake
](
#cmake
)
-
[
Layers
](
#layers
)
-
[
Unit Tests
](
#unit-tests
)
-
[
Python API
](
#python-api
)
-
[
Benchmarking
](
#benchmarking
)
## Overview
我们计划将 Intel® MKL 中引入的 GEMM Packed APIs
\[
[
1
](
#references
)
\]
集成到 PaddlePaddle 中,充分发挥英特尔平台的优势,有效提升PaddlePaddle在英特尔架构上的性能。
现阶段的优化主要针对 Recurrent Neural Network(以下简称RNN)相关层(包括
`RecurrentLayer`
,
`GatedRecurrentLayer`
和
`LstmLayer`
), 以及 PaddlePaddle V1 API。
## Key Points
### Background
目前PaddlePaddle采用了 Intel® MKL库的
[
cblas_?gemm
](
https://software.intel.com/en-us/mkl-developer-reference-c-cblas-gemm
)
函数,这个函数本身会在计算前将原数据转换为更适合英特尔平台的内部格式。
1.
转换耗时
\
这一数据格式的转换操作(Packing),在问题本身的计算量比较小的时候,显得相对来说较为耗时。例如在DeepSpeech2
\[
[
2
](
#references
)
\]
的Vanilla RNN部分中,矩阵大小是
`batch_size * 2048`
。
2.
转换冗余
\
由于在现有的某些情况下(例如RNN),多次调用 cblas_?gemm 会使用相同的原数据,因此,每次调用时对原数据的重复Packing便成为了冗余。
为了最大程度减少多次调用 cblas_?gemm 在Packing上的耗时,Intel® MKL 引入了以下四个API:
*
cblas_?gemm_alloc
*
cblas_?gemm_pack
*
cblas_?gemm_compute
*
cblas_?gemm_free
通过使用这些API,我们可以先完成对原数据的Packing操作,再把已转换为Packed格式的数据传递给那些复用同一数据的gemm_compute函数,从而避免了Packing冗余。
### Solution
在RNN的情况下,同一次前向、后向(forward/backward)过程中所有时间步(time step)共享同一个权重(weight)。当只做推断(inference)时,各次前向之间也都使用了相同的权重,没有必要在每次前向中每个时间步的计算时对权重进行重复的Packing操作。
我们通过使用新引入的GEMM Packed APIs,在层初始化的时候,先完成对权重的Packing操作,然后在前向,后向时复用已经转换过的权重,并在每次权重更新后,对新的权重进行转换用于下次迭代。
*
优化前,对于序列长度(sequence length)为
`T`
的网络模型(model),
`N`
次迭代执行的转换次数为:
-
`inference`
:
`N * T`
-
`training`
:
`2 * N * T`
*
优化后,对于同样设置的网络模型,其转换次数减少至:
-
`inference`
:
`1`
-
`training`
:
`2 * N`
## Actions
添加的相关文件和目录结构如下:
```
txt
PaddlePaddle/Paddle
├── ...
└── paddle/
├── ...
└── gserver/
├── ...
├── layers/
│ ├── ...
│ ├── MKLPackedRecurrentLayer.*
| ├── MKLPackedGatedRecurrentLayer.*
| ├── MKLPackedLstmLayer.*
| └── MKLPackedGemm.h
└── tests/
├── ...
└── test_MKLPacked.cpp
```
### CMake
在对应的
`CMakeLists.txt`
中根据
`WITH_MKL`
是否打开,来决定是否开启MKL Packed相关功能。
### Layers
所有的
`MKLPacked*Layer`
都继承于PaddlePaddle的基类
`Layer`
, 并添加头文件
`MKLPackedGemm.h`
,该文件对相关GEMM Packed APIs做了封装。
### Unit Tests
我们会添加
`test_MKLPacked.cpp`
用于MKL Packed优化后layer的测试。
对于每一个新加的RNN layer,我们会对比如下2个方面:
1.
对比优化后layer自身,sequence mode(
`rnn_use_batch=false`
)与batch mode(
`rnn_use_batch=true`
)的结果。
2.
对比优化后layer与相对应的PaddlePaddle原有layer, 在batch mode下的结果。
### Python API
TBD
### Benchmarking
会添加相应的脚本用于测试和对比在使用MKL Packed recurrent layers 前后的网络性能。
## References
1.
[
Introducing the new Packed APIs for GEMM
](
https://software.intel.com/en-us/articles/introducing-the-new-packed-apis-for-gemm
)
2.
[
DeepSpeech2 on PaddlePaddle
](
https://github.com/PaddlePaddle/DeepSpeech#deepspeech2-on-paddlepaddle
)
doc/design/mkl
dnn/README.MD
→
doc/design/mkl
/mkldnn.md
浏览文件 @
c13805e9
...
...
@@ -208,4 +208,3 @@ if use_mkldnn
但是在PaddlePaddle中,无论是重构前的layer还是重构后的op,都不会想要知道next layer/op的信息。
4.
MKL-DNN的高性能格式与PaddlePaddle原有的
`NCHW`
不同(PaddlePaddle中的cuDNN部分使用的也是
`NCHW`
,所以不存在这个问题)。
所以需要引入一个转换方法,并且只需要在必要的时候转换这种格式,才能更好的发挥MKL-DNN的性能。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录