mkldnn.md 10.9 KB
Newer Older
T
tensor-tang 已提交
1 2
# Intel® MKL-DNN on PaddlePaddle: Design Doc

T
tensor-tang 已提交
3 4 5
我们计划将英特尔深度神经网络数学库[Intel MKL-DNN](https://github.com/01org/mkl-dnn)
(Intel Math Kernel Library for Deep Neural Networks)集成到PaddlePaddle,
充分展现英特尔平台的优势,有效提升PaddlePaddle在英特尔架构上的性能。
T
tensor-tang 已提交
6

T
tensor-tang 已提交
7
<div align="center">
W
weixing02 已提交
8
<img src="https://raw.githubusercontent.com/PaddlePaddle/Paddle/develop/doc/v2/images/overview.png"><br/>
T
tensor-tang 已提交
9 10
Figure 1. PaddlePaddle on IA
</div>
T
tensor-tang 已提交
11

T
tensor-tang 已提交
12 13 14
近期目标

- 完成常用Layer的MKL-DNN实现。
T
tensor-tang 已提交
15
- 完成常见深度神经网络VGG,GoogLeNet 和 ResNet的MKL-DNN实现。
T
tensor-tang 已提交
16

T
tensor-tang 已提交
17 18
目前的优化,主要针对PaddlePaddle在重构之前的代码框架以及V1的API。
具体的完成状态可以参见[这里](https://github.com/PaddlePaddle/Paddle/projects/21)
T
tensor-tang 已提交
19 20

## Contents
X
Xin Pan 已提交
21 22 23 24 25 26 27 28 29 30 31 32 33 34

- [Overview](#overview)
- [Actions](#actions)
 	- [CMake](#cmake)
 	- [Matrix](#matrix)
	- [Layers](#layers)
	- [Activations](#activations)
	- [Parameters](#parameters)
	- [Gradients](#gradients)
	- [Unit Tests](#unit-tests)
	- [Python API](#python-api)
	- [Benchmarking](#benchmarking)
	- [Others](#others)
- [Design Concerns](#design-concerns)
T
tensor-tang 已提交
35

T
tensor-tang 已提交
36
## Overview
T
tensor-tang 已提交
37

T
tensor-tang 已提交
38 39 40 41
我们会把MKL-DNN会作为第三方库集成进PaddlePaddle,与其他第三方库一样,会在编译PaddlePaddle的时候下载并编译MKL-DNN。

同时,为了进一步提升PaddlePaddle在基本数学运算的计算速度,我们也将MKLML即(MKL small library\[[1](#references)\])
作为另一个第三方库集成进PaddlePaddle,它只会包括生成好的动态库和头文件。
42 43 44

MKL,MKLML以及MKL-DNN三者关系如下表:

W
weixing02 已提交
45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76
<table>
<thead>
<tr>
<th>Name</th>
<th>Open Source</th>
<th>License</th>
<th>Descriptions</th>
</tr>
</thead>
<tbody>
<tr>
<td>MKL</td>
<td>No</td>
<td>Proprietary</td>
<td>Accelerate math processing routines</td>
</tr>
<tr>
<td>MKLML</td>
<td>No</td>
<td>Proprietary</td>
<td>Small package of MKL, especially for Machine Learning</td>
</tr>

<tr>
<td>MKL-DNN</td>
<td>Yes</td>
<td>Apache 2.0</td>
<td>Accelerate primitives processing routines especially for Deep Neural Networks</td>
</tr>

</tbody>
</table>
77

T
tensor-tang 已提交
78 79
MKLML可以与MKL-DNN共同使用,以此达到最好的性能。

T
tensor-tang 已提交
80
<div align="center">
W
weixing02 已提交
81
<img src="https://raw.githubusercontent.com/PaddlePaddle/Paddle/develop/doc/v2/images/engine.png"><br/>
T
tensor-tang 已提交
82
Figure 2. PaddlePaddle with MKL Engines
T
tensor-tang 已提交
83 84
</div>

T
tensor-tang 已提交
85
## Actions
T
tensor-tang 已提交
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114

添加的相关文件和目录结构如下:

```txt
PaddlePaddle/Paddle
├── ...
├── cmake/
│   ├── external/
│   │   ├── ...
│   │   ├── mkldnn.cmake
│   │   └── mklml.cmake
└── paddle/
    ├── ...
    ├── math/
    │   ├── ...
    │   └── MKLDNNMatrix.*
    └── gserver/
        ├── ...
        ├── layers/
        │   ├── ...
        │   └── MKLDNN*Layer.*
        ├── activations/
        │   ├── ...
        │   └── MKLDNNActivations.*
        └── tests/
            ├── ...
            ├── MKLDNNTester.*
            └── test_MKLDNN.cpp
```
T
tensor-tang 已提交
115

T
tensor-tang 已提交
116
### CMake
T
tensor-tang 已提交
117
`CMakeLists.txt`中提供一个与MKL有关的总开关:`WITH_MKL`,它负责决定编译时是否使用MKLML和MKL-DNN
T
tensor-tang 已提交
118

W
weixing 已提交
119
- `WITH_MKLML` 控制是否使用MKLML库。
T
tensor-tang 已提交
120
当打开`WITH_MKL`时,会自动使用MKLML库作为PaddlePaddle的CBLAS和LAPACK库,同时会开启Intel OpenMP用于提高MKLML的性能。
121 122
编译时会把对应的头文件和库放在`build/third_party/install/mklml/*`目录下对应的地方。
MKLML的库目前都是动态库,主要包括`libiomp5.so``libmklml_intel.so`
T
tensor-tang 已提交
123 124
- `WITH_MKLDNN` 控制是否使用MKL-DNN。
当开启`WITH_MKL`时,会自动根据硬件配置[[2](#references)]选择是否编译MKL-DNN。
125 126
编译时会把对应的头文件和库放在`build/third_party/install/mkldnn/*`目录下对应的地方。
MKL-DNN的库目前只有动态库`libmkldnn.so`
T
tensor-tang 已提交
127

T
tensor-tang 已提交
128
### Matrix
129
目前在PaddlePaddle中数据都是以`NCHW`的格式存储,但是在MKL-DNN中的排列方式不止这一种。
T
tensor-tang 已提交
130
所以我们定义了一个`MKLDNNMatrix`用于管理MKL-DNN数据的不同格式以及相互之间的转换。
T
tensor-tang 已提交
131

T
tensor-tang 已提交
132
<div align="center">
W
weixing02 已提交
133
<img src="https://raw.githubusercontent.com/PaddlePaddle/Paddle/develop/doc/v2/images/matrix.png"><br/>
T
tensor-tang 已提交
134 135
Figure 3. MKLDNNMatrix
</div>
T
tensor-tang 已提交
136

T
tensor-tang 已提交
137
### Layers
T
tensor-tang 已提交
138 139 140 141 142
所有MKL-DNN的Layers都会继承于`MKLDNNLayer`,该类继承于PaddlePaddle的基类`Layer`
`MKLDNNLayer`中会提供一些必要的接口和函数,并且会写好`forward``backward`的基本逻辑,
子类只需要使用定义好的接口,实现具体的函数功能即可。

<div align="center">
W
weixing02 已提交
143
<img src="https://raw.githubusercontent.com/PaddlePaddle/Paddle/develop/doc/v2/images/layers.png"><br/>
T
tensor-tang 已提交
144 145 146
Figure 4. MKLDNNLayer
</div>

147
每个MKLDNNLayer都包含用于内部存储和外部存储的一系列MKLDNNMatrix:
T
tensor-tang 已提交
148

149 150 151 152 153 154 155 156 157
- 内部存储(internel memory):`inVal_`,`inGrad_`,`outVal_``outGrad_`,分别代表输入数据,输入梯度,输出数据和输出梯度。
- 外部存储(external memory):都是以ext开头,比如`extInVal_``extInGrad_`,它们主要是用于,
当数据格式与PaddlePaddle默认的`NCHW`格式不匹配时,转换内存的工作。
需要注意的是,PaddlePaddle的activation会直接使用`output_.value``output_.grad`
所以`extOutVal_``extOutGrad_`必须分别与`output_.value``output_.grad`共享内存,
如果不需要外部存储用于转换,那么对应的内部存储也会与它们共享内存。
- 转换函数(resetXXX): 包括`resetInValue``resetInGrad``resetOutValue``resetOutGrad`
表示对输入数据,输入梯度,输出数据和输出梯度的转换。
这些函数会根据输入参数重新设置内部和外部存储,当然这两者也可以相等,即表示不需要转换。
T
tensor-tang 已提交
158

159
注意:每个`MKLDNNlayer`的子类只需要使用内部存储就可以了,所有外部的转换工作都会在reset系列函数中都准备好。
T
tensor-tang 已提交
160

T
tensor-tang 已提交
161
### Activations
162
在重构前的PaddlePaddle中,激活函数是独立于`Layer`的概念,并且输入输出都是共用一块内存,
T
tensor-tang 已提交
163 164 165
所以添加了对应的`MKLDNNActivation`来实现,方式类似于`MKLDNNLayer`

### Parameters
166
对于有参数的层,我们会保证`MKLDNNLayer`使用的参数与PaddlePaddle申请的buffer共用一块内存。
T
tensor-tang 已提交
167 168 169 170 171 172 173 174 175 176 177
如果存在数据排列格式不一样的情况时,我们会在网络训练之前把格式转换为MKL-DNN希望的格式,
在训练结束的时候再保存为PaddlePaddle的格式,但是整个训练过程中不需要任何转换。
这样既使得最终保存的参数格式与PaddlePaddle一致,又可以避免不必要的转换。

### Gradients
由于MKL-DNN的操作都是直接覆盖的形式,也就是说输出的结果不会在原来的数据上累加,
这样带来的好处就是不需要一直清空memory,节省了不必要的操作。
但是注意的是,当网络出现分支且在`backward`的时候,需要累加不同Layer传过来的梯度。
所以在`MKLDNNlayer`中实现了一个merge的方法,此时每个小分支的`Input Gradient`
会先临时保存在`MKLDNNMatrix`中,由分支处的Layer负责求和,并把结果放到当前层的`output_.grad`中。
所以整体上,在实现每个子类的时候就不需要关心分支的事情了。
T
tensor-tang 已提交
178

T
tensor-tang 已提交
179
<div align="center">
W
weixing02 已提交
180
<img src="https://raw.githubusercontent.com/PaddlePaddle/Paddle/develop/doc/v2/images/gradients.png"><br/>
T
tensor-tang 已提交
181 182
Figure 5. Merge Gradients
</div>
T
tensor-tang 已提交
183

T
tensor-tang 已提交
184
### Unit Tests
T
tensor-tang 已提交
185
我们会添加`test_MKLDNN.cpp``MKLDNNTester.*`用于MKL-DNN的测试。
186
测试分为每个Layer(或Activation)的单元测试和简单网络的整体测试。
T
tensor-tang 已提交
187
每个测试会对比PaddlePaddle中CPU算出的结果与MKL-DNN的结果,小于某个比较小的阈值认为通过。
T
tensor-tang 已提交
188 189 190 191

### Python API
目前只考虑**v1 API**

T
tensor-tang 已提交
192
计划在`python/paddle/trainer/config_parser.py`里面添加`use_mkldnn`这个选择,方便用户选择使用MKL-DNN的layers。
T
tensor-tang 已提交
193 194 195

具体实现方式比如:

T
tensor-tang 已提交
196 197 198 199 200
```python
use_mkldnn = bool(int(g_command_config_args.get("use_mkldnn", 0)))
if use_mkldnn
    self.layer_type = mkldnn_*
```
T
tensor-tang 已提交
201

W
weixing 已提交
202
所有MKL-DNN的`layer_type`会以*mkldnn_*开头,这些会在`MKLDNN*Layer`注册layer的时候保证,以示区分。
T
tensor-tang 已提交
203

T
tensor-tang 已提交
204
同时,会在`paddle/utils.Flags`中添加一个`use_mkldnn`的flag,用于选择是否使用MKL-DNN的相关功能。
T
tensor-tang 已提交
205

T
tensor-tang 已提交
206
### Benchmarking
207 208
会添加相应的脚本在[这里](https://github.com/PaddlePaddle/Paddle/tree/develop/benchmark/paddle/image),用于测试和对比在使用MKL-DNN前后的CNN网络性能。
测试的性能对比结果会在[IntelOptimizedPaddle.md](https://github.com/PaddlePaddle/Paddle/blob/develop/benchmark/IntelOptimizedPaddle.md)
T
tensor-tang 已提交
209 210

### Others
T
tensor-tang 已提交
211
1. 如果在使用MKL-DNN的情况下,会把CPU的Buffer对齐为4096,具体可以参考MKL-DNN中的[memory](https://github.com/01org/mkl-dnn/blob/master/include/mkldnn.hpp#L673)
T
tensor-tang 已提交
212
2. 深入PaddlePaddle,寻找有没有其他可以优化的可能,进一步优化。比如可能会用OpenMP改进SGD的更新性能。
T
tensor-tang 已提交
213

T
tensor-tang 已提交
214
## Design Concerns
T
tensor-tang 已提交
215

T
tensor-tang 已提交
216
为了更好的符合PaddlePaddle的代码风格\[[3](#references)\],同时又尽可能少的牺牲MKL-DNN的性能\[[4](#references)\]
T
tensor-tang 已提交
217

T
tensor-tang 已提交
218
我们总结出一些特别需要注意的点:
T
tensor-tang 已提交
219

T
tensor-tang 已提交
220
1. 使用**deviceId_**。为了尽可能少的在父类Layer中添加变量或者函数,
X
Xin Pan 已提交
221 222
我们决定使用已有的`deviceId_`变量来区分layer的属性,定义`-2``MKLDNNLayer`特有的设备ID。
2. 重写父类Layer的**init**函数,修改`deviceId_``-2`,代表这个layer是用于跑在MKL-DNN的环境下。
T
tensor-tang 已提交
223
3. 创建`MKLDNNBase`,定义一些除了layer和memory相关的类和函数。
X
Xin Pan 已提交
224
包括MKL-DNN会用到`MKLDNNStream``CPUEngine`,和未来可能还会用到`FPGAEngine`等。
T
tensor-tang 已提交
225
4. 如果MKL-DNN layer的后面接有cpu device,那么就会使`output_.value``extOutVal_`共享内存,
226 227
同时数据格式就是`NCHW`,这样下一个cpu device就能拿到正确的数据。
在有普通的CPU layer时, `extOutVal_``extOutGrad_`的格式始终是`NCHW`或者`NC`
T
tensor-tang 已提交
228

T
tensor-tang 已提交
229
## References
T
tensor-tang 已提交
230
1. [MKL small library](https://github.com/01org/mkl-dnn#linking-your-application)[Intel MKL](https://software.intel.com/en-us/mkl)的一个子集。
X
Xin Pan 已提交
231
主要包括了深度学习相关的数学原语与操作,一般由MKL-DNN在发布[新版本](https://github.com/01org/mkl-dnn/releases)时一起更新。
T
tensor-tang 已提交
232 233 234
2. [MKL-DNN System Requirements](https://github.com/01org/mkl-dnn#system-requirements)
目前在PaddlePaddle中,仅会在支持AVX2指令集及以上的机器才使用MKL-DNN。
3. [原来的方案](https://github.com/PaddlePaddle/Paddle/pull/3096)会引入**nextLayer**的信息。
X
Xin Pan 已提交
235
但是在PaddlePaddle中,无论是重构前的layer还是重构后的op,都不会想要知道next layer/op的信息。
T
tensor-tang 已提交
236
4. MKL-DNN的高性能格式与PaddlePaddle原有的`NCHW`不同(PaddlePaddle中的cuDNN部分使用的也是`NCHW`,所以不存在这个问题)。
X
Xin Pan 已提交
237
所以需要引入一个转换方法,并且只需要在必要的时候转换这种格式,才能更好的发挥MKL-DNN的性能。