Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
e26afed5
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
7
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
e26afed5
编写于
12月 04, 2018
作者:
C
chengduozh
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
follow comments
上级
4ee75e8b
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
22 addition
and
46 deletion
+22
-46
doc/fluid/dev/op_notes.md
doc/fluid/dev/op_notes.md
+22
-46
未找到文件。
doc/fluid/dev/op_notes.md
浏览文件 @
e26afed5
# Op相关的一些注意事项
-
[
Fluid中Op的构建逻辑
](
#Fluid中Op的构建逻辑
)
-
[
1.Fluid中Op的构建逻辑
](
#1.Fluid中Op的构建逻辑
)
-
[
2.Op的注册逻辑
](
#2.Op的注册逻辑
)
-
[
写Op注意事项
](
#写Op注意事项
)
-
[
3.关于Op可以支持输入输出类型
](
#3.关于Op可以支持输入输出类型
)
-
[
4.关于ShareDataWith的调用
](
#4.关于ShareDataWith的调用
)
-
[
5.在Op内部不能对输入的数据做任何的改写
](
#5.在Op内部不能对输入的数据做任何的改写
)
-
[
6.关于显存优化
](
#6.关于显存优化
)
-
[
7.关于Op Kernel需要注册的数据类型
](
#7.关于OpKernel需要注册的数据类型
)
-
[
8.关于稀疏梯度参数更新方法
](
#8.关于稀疏梯度参数更新方法
)
-
[
9.Op兼容性问题
](
#9.Op兼容性问题
)
-
[
10.关于混合设备调用
](
#10.关于混合设备调用
)
-
[
11.关于第三方库的选择
](
#11.关于第三方库的选择
)
-
[
Op性能优化注意事项
](
#Op性能优化注意事项
)
-
[
12.关于Op优化
](
#12.关于Op优化
)
-
[
Op数值稳定性问题
](
#Op存在数值稳定性问题
)
-
[
13.有些Op存在数值稳定性问题
](
#13.有些Op存在数值稳定性问题
)
-
[
14.关于WITH_FAST_MATH的开与关
](
#14.关于WITH_FAST_MATH的开与关
)
-
[
其他
](
#其他
)
-
[
15.关于报错信息
](
#15.关于报错信息
)
-
[
16.关于Op的数学公式
](
#16.关于Op的数学公式
)
-
[
17.关于Python端Op接口中参数的顺序
](
#17.关于Python端Op接口中参数的顺序
)
## Fluid中Op的构建逻辑
### 1.Fluid中Op的构建逻辑
Fluid中所有的Op都继承自
`OperatorBase`
,且所有的Op都是无状态的,每个Op包含的成员变量只有四个:type、inputs、outputs、attribute。
Op的核心方法是Run,Run方法需要两方面的资源:数据资源和计算资源,这两个资源分别通过
`Scope`
和
`Place`
获取。框架内部有一个全局的
`DeviceContextPool`
,用来记录
`Place`
和
`DeviceContext`
之间的对应的关系,即每个
`Place`
有且仅有一个
`DeviceContext`
与之对应,
`DeviceContext`
中存放了当前设备的计算资源
,比如对于GPU,这些资源包括
`cudnn_handle`
、
`cublas_handle`
、
`stream`
等,Op内部所有的计算(数据拷贝和CUDA Kernel等)都必须在
在
`DeviceContext`
中进行。
Op的核心方法是Run,Run方法需要两方面的资源:数据资源和计算资源,这两个资源分别通过
`Scope`
和
`Place`
获取。框架内部有一个全局的
`DeviceContextPool`
,用来记录
`Place`
和
`DeviceContext`
之间的对应的关系,即每个
`Place`
有且仅有一个
`DeviceContext`
与之对应,
`DeviceContext`
中存放了当前设备的计算资源
。比如对于GPU,这些资源包括
`cudnn_handle`
、
`cublas_handle`
、
`stream`
等,Op内部所有的计算(数据拷贝和CUDA Kernel等)都必须
在
`DeviceContext`
中进行。
Fluid框架的设计理念是可以在多种设备及第三方库上运行,有些Op的实现可能会因为设备或者第三方库的不同而不同。为此,Fluid引入了OpKernel的方式,即一个Op可以有多个OpKernel,这类Op继承自
`OperatorWithKernel`
,这类Op的代表是conv,conv_op的OpKerne有:
`GemmConvKernel`
、
`CUDNNConvOpKernel`
、
`ConvMKLDNNOpKernel`
,且每个OpKernel都有double和float两种数据类型。不需要OpKernel的代表有
`WhileOp`
等。
Operator继承关系图:
<p
align=
"center"
>
<img
src=
"https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/
add_op_note
/doc/fluid/user_guides/design_idea/image/op_inheritance_relation_diagram.png"
width=
800
>
<img
src=
"https://raw.githubusercontent.com/PaddlePaddle/FluidDoc/
develop
/doc/fluid/user_guides/design_idea/image/op_inheritance_relation_diagram.png"
width=
800
>
</p>
进一步了解可参考:
...
...
@@ -57,7 +33,7 @@ Operator继承关系图:
<table>
<thead>
<tr>
<th>
-
</th>
<th>
注册项
</th>
<th>
类型
</th>
<th>
说明
</th>
<th>
调用
</th>
...
...
@@ -73,26 +49,26 @@ Operator继承关系图:
<tr>
<td>
GradOpMakerFN
</td>
<td>
Functor
</td>
<td>
返回当前Op对应的反向Op:std::vector
<
std::unique_ptr
<
OpDesc
>
>,因为正向Op的反向可能有多个Op构成
</td>
<td>
返回当前Op对应的反向Op:std::vector
<
std::unique_ptr
<
OpDesc
>
>,因为正向Op的反向可能有多个Op构成
</td>
<td>
编译时调用
</td>
</tr>
<tr>
<td>
OpAttrChecker
</td>
<td>
Class
</td>
<td>
对Op的attr进行check
</td>
<td>
编译时调用
,只用调用一次
</td>
<td>
编译时调用
</td>
</tr>
<tr>
<td>
InferVarTypeFN
</td>
<td>
Functor
</td>
<td>
用于推断输出Var的Type,比如是LoDTensor还是SelectedRows,或者其他
</td>
<td>
编译时调用
,只用调用一次
</td>
<td>
编译时调用
</td>
</tr>
<tr>
<td>
InferShapeFN
</td>
<td>
Functor
</td>
<td>
用于推断Output的Shape
</td>
<td>
分为编译时和运行时,编译时是在Python端调用
,
如果Op继承自OperatorWithKernel,运行时是在op.run时调用
</td>
<td>
分为编译时和运行时,编译时是在Python端调用
;
如果Op继承自OperatorWithKernel,运行时是在op.run时调用
</td>
</tr>
<tr>
<td>
OpCreator
</td>
...
...
@@ -113,13 +89,13 @@ Operator继承关系图:
op_infer_var_type)
```
注意:
**注意:**
1.
对于所有Op,前三个参数是必须的,op_type指明op的名字,OperatorBase是该Op的对象,op_maker_and_checker_maker是op的maker和op中attr的checker。
2.
如果该Op有反向,则必须要有op_grad_opmaker,因为在backward会根据正向的Op中获取反向Op的Maker。
3.
框架提供了一个默认的op_grad_opmaker:
`DefaultGradOpDescMaker`
,这个Maker会将前向Op的输入和输出都
做
为反向Op的输入,将前向Op的输入的梯度作为反向Op的输出,并将前向Op的属性拷贝过来。
**注意:**
DefaultGradOpDescMaker会将前向Op的所有输入输出都做反向Op的输入,即使这个输入是没有必要的,这将会导致无法对没有用到的变量做内存优化。
3.
框架提供了一个默认的op_grad_opmaker:
`DefaultGradOpDescMaker`
,这个Maker会将前向Op的输入和输出都
作
为反向Op的输入,将前向Op的输入的梯度作为反向Op的输出,并将前向Op的属性拷贝过来。
**注意:**
DefaultGradOpDescMaker会将前向Op的所有输入输出都做反向Op的输入,即使这个输入是没有必要的,这将会导致无法对没有用到的变量做内存优化。
4.
框架没有提供默认的op_infer_var_shape方法。如果该Op是无OpKernel的,通常需要用户添加对应的op_infer_var_shape方法;如果该Op是有OpKernel的,需要实现
`OperatorWithKernel`
中的
`InferShape`
方法,此时不需要提供op_infer_var_shape方法。具体实现可参考
[
while_op.cc
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/fluid/operators/controlflow/while_op.cc
)
,
[
conv_op.cc
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/fluid/operators/conv_op.cc
)
。
...
...
@@ -127,7 +103,7 @@ Operator继承关系图:
更多内容请参考:
-
[
如何写新的Op
](
http
s://github.com/PaddlePaddle/FluidDoc/blob/develop/doc/fluid/dev/new_op_cn.md
)
-
[
如何写新的Op
](
http
://paddlepaddle.org/documentation/docs/zh/1.1/advanced_usage/development/new_op.html
)
## 写Op注意事项
### 3.关于Op可以支持输入输出类型
...
...
@@ -151,10 +127,10 @@ ShareDataWith的功能是使两个Tensor共享底层buffer,在调用这个操
目前要求所有OpKernel都要注册double和float数据类型。
### 8.关于稀疏梯度参数更新方法
目前稀疏梯度在做更新更新的时候会先对梯度做merge,即对相同参数的梯度做累加,然后做参数
的更新以及附加参数
的更新。
目前稀疏梯度在做更新更新的时候会先对梯度做merge,即对相同参数的梯度做累加,然后做参数
以及附加参数(如velocity)
的更新。
### 9.Op兼容性问题
对Op的修改需要考虑兼容性问题,要保证Op修改之后
之前的模型都能够正常加载及运行。所以现在不允许对已有的Op新增输入或者输出,不允许减去Op的已有属性及修改默认值
。
对Op的修改需要考虑兼容性问题,要保证Op修改之后
,之前的模型都能够正常加载及运行。
<font
color=
"#FF0000"
>
**所以现在不允许对已有的Op新增输入或者输出,不允许减去Op的已有属性及修改默认值**
</font>
。
### 10.关于混合设备调用
由于GPU是异步执行的,当CPU调用返回之后,GPU端可能还没有真正的执行,所以如果在Op中创建了GPU运行时需要用到的临时变量,当GPU开始运行的时候,该临时变量可能在CPU端已经被释放,这样可能会导致GPU计算出错。
...
...
@@ -171,7 +147,7 @@ The following device operations are asynchronous with respect to the host:
关于cudaMemCpy和cudaMemCpyAsync注意事项:
-
如果数据传输是从GPU端到非
也
锁定的CPU端,数据传输将是同步,即使调用的是异步拷贝操作。
-
如果数据传输是从GPU端到非
页
锁定的CPU端,数据传输将是同步,即使调用的是异步拷贝操作。
-
如果数据传输时从CPU端到CPU端,数据传输将是同步的,即使调用的是异步拷贝操作。
更多内容可参考:
...
...
@@ -181,35 +157,35 @@ The following device operations are asynchronous with respect to the host:
### 11.关于第三方库的选择
在写Op过程中优先使用高性能(如cudnn、mkldnn、mklml、eigen等)中提供的操作,但是一定要做benchmark,有些库中的操作在深度学习任务中可能会比较慢。因为高性能库(如eigen等)中提供的操作为了更为通用,在性能方面可能并不是很好,通常深度学习模型中数据量较小,所以有些情况下可能高性能库中提供的某些操作速度较慢。比如Elementwise系列的所有Op(前向和反向),Elementwise操作在模型中调用的次数比较多,
比如Elementwise_add,在很多操作之后都需要添加偏置项。在之前的实现中Elementwise_op直接调用Eigen库,由于Elementwise操作在很多情况下需要对数据做Broadcast,而实验发现Eigen库做Broadcast的速度比较慢,慢的原因在这个PR(#6229)
中有描述。
在写Op过程中优先使用高性能(如cudnn、mkldnn、mklml、eigen等)中提供的操作,但是一定要做benchmark,有些库中的操作在深度学习任务中可能会比较慢。因为高性能库(如eigen等)中提供的操作为了更为通用,在性能方面可能并不是很好,通常深度学习模型中数据量较小,所以有些情况下可能高性能库中提供的某些操作速度较慢。比如Elementwise系列的所有Op(前向和反向),Elementwise操作在模型中调用的次数比较多,
尤其是Elementwise_add,在很多操作之后都需要添加偏置项。在之前的实现中Elementwise_op直接调用Eigen库,由于Elementwise操作在很多情况下需要对数据做Broadcast,而实验发现Eigen库做Broadcast的速度比较慢,慢的原因在这个PR
[
#6229
](
https://github.com/PaddlePaddle/Paddle/pull/6229
)
中有描述。
## Op性能优化注意事项
### 12.关于Op优化
Op的计算速度与输入的数据量有关,对于某些Op可以根据输入数据的Shape和Op的属性参数来选择不同的计算方式。比如concat_op,当axis>=1时,在对多个tensor做拼接过程中需要对每个tensor做很多次拷贝,如果是在GPU上,需要调用cudaMemCopy。相对CPU而言,GPU属于外部设备,所以每次调用GPU的操作都会有一定的额外开销,并且当需要拷贝的次数较多时,这种开销就更为凸现。目前concat_op的实现会根据输入数据的Shape以及axis值来选择不同的调用方式,如果输入的tensor较多,且axis不等于0,则将多次拷贝操作转换成一个CUDA Kernel来完成;如果输入tensor较少,且axis等于0,使用直接进行拷贝。相关实验过程在该PR(
#8669
)中有介绍。
Op的计算速度与输入的数据量有关,对于某些Op可以根据输入数据的Shape和Op的属性参数来选择不同的计算方式。比如concat_op,当axis>=1时,在对多个tensor做拼接过程中需要对每个tensor做很多次拷贝,如果是在GPU上,需要调用cudaMemCopy。相对CPU而言,GPU属于外部设备,所以每次调用GPU的操作都会有一定的额外开销,并且当需要拷贝的次数较多时,这种开销就更为凸现。目前concat_op的实现会根据输入数据的Shape以及axis值来选择不同的调用方式,如果输入的tensor较多,且axis不等于0,则将多次拷贝操作转换成一个CUDA Kernel来完成;如果输入tensor较少,且axis等于0,使用直接进行拷贝。相关实验过程在该PR(
[
#8669
](
https://github.com/PaddlePaddle/Paddle/pull/8669
)
)中有介绍。
由于CUDA Kernel的调用有一定的额外开销,所以如果Op中出现多次调用CUDA Kernel,可能会影响Op的执行速度。比如之前的sequence_expand_op中包含很多CUDA Kernel,通常这些CUDA Kernel处理的数据量较小,所以频繁调用这样的Kernel会影响Op的计算速度,这种情况下最好将这些小的CUDA Kernel合并成一个。在优化sequence_expand_op过程(相关PR
#9289)中就是采用这种思路,优化后的sequence_expand_op比之前的实现平均快出约1倍左右,相关实验细节在该PR(#9289
)中有介绍。
由于CUDA Kernel的调用有一定的额外开销,所以如果Op中出现多次调用CUDA Kernel,可能会影响Op的执行速度。比如之前的sequence_expand_op中包含很多CUDA Kernel,通常这些CUDA Kernel处理的数据量较小,所以频繁调用这样的Kernel会影响Op的计算速度,这种情况下最好将这些小的CUDA Kernel合并成一个。在优化sequence_expand_op过程(相关PR
[
#9289
](
https://github.com/PaddlePaddle/Paddle/pull/9289
)
)中就是采用这种思路,优化后的sequence_expand_op比之前的实现平均快出约1倍左右,相关实验细节在该PR(
[
#9289
](
https://github.com/PaddlePaddle/Paddle/pull/9289
)
)中有介绍。
减少CPU与GPU之间的拷贝和同步操作的次数。比如fetch操作,在每个迭代之后都会对模型参数进行更新并得到一个loss,并且数据从GPU端到
非也
锁定的CPU端的拷贝是同步的,所以频繁的fetch多个参数会导致模型训练速度变慢。
减少CPU与GPU之间的拷贝和同步操作的次数。比如fetch操作,在每个迭代之后都会对模型参数进行更新并得到一个loss,并且数据从GPU端到
没有页
锁定的CPU端的拷贝是同步的,所以频繁的fetch多个参数会导致模型训练速度变慢。
## Op数值稳定性问题
### 13.有些Op存在数值稳定性问题
出现数值稳定
的主要原因是对浮点型数据施加操作的顺序不同可能导致最后
计算结果不同。而GPU是通过多线程并行计算的方式来加速计算的,所以很容易出现对浮点数施加操作的顺序不固定现象。
出现数值稳定
性的主要原因程序在多次运行时,对浮点型数据施加操作的顺序可能不同,进而导致最终
计算结果不同。而GPU是通过多线程并行计算的方式来加速计算的,所以很容易出现对浮点数施加操作的顺序不固定现象。
目前发现cudnn
的卷积操作、Pooling的Max模式,CUDA中的Reduce操作,ParallelExecutor的Reduce模式下参数梯度的聚合,CudaAtomicXX
等操作运行结果是非确定的。
目前发现cudnn
中的卷积操作、cudnn中的MaxPooling、CUDA中CudaAtomicXX、ParallelExecutor的Reduce模式下参数梯度的聚合
等操作运行结果是非确定的。
为此Fluid中添加了一些FLAGS,比如使用FLAGS_cudnn_deterministic来强制cudnn使用确定性算法、FLAGS_cpu_deterministic强
中
CPU端的计算使用确定性方法。
为此Fluid中添加了一些FLAGS,比如使用FLAGS_cudnn_deterministic来强制cudnn使用确定性算法、FLAGS_cpu_deterministic强
制
CPU端的计算使用确定性方法。
### 14.关于WITH_FAST_MATH的开与关
如果WITH_FAST_MATH是ON,NVCC在编译Paddle和Egien的时候会使用--use_fast_math,这样可能会使CUDA中的一些操作在损失一定精度的情况下变快,比如log、exp、tanh等,但也会使一些操作的计算结果是错的,比如pow操作,具体原因请查看
[
torch/DEPRECEATED-torch7-distro#132
](
https://github.com/torch/DEPRECEATED-torch7-distro/issues/132
)
。
## 其他
### 15.关于报错信息
Enforce提示信息不能为空,并
切需要写明,因为报错信息可以更快更方便的
分析出错误的原因。
Enforce提示信息不能为空,并
且需要写明,因为报错信息可以更快更方便地
分析出错误的原因。
### 16.关于Op的数学公式
如果Op有数学公式,一定要在代码中将数学公式写明,并在Python API的Doc中显示,因为用户在对比不同框架的计算结果时可能需要了解Paddle对Op是怎么实现的。
注意:在merge到develop分支之前一定进行公式预览
。
**注意:**
在merge到develop分支之前一定进行公式预览。比如
[
dynamic_lstmp
](
http://paddlepaddle.org/documentation/docs/zh/1.1/api/layers.html#dynamic-lstmp
)
。
### 17.关于Python端Op接口中参数的顺序
Python API中参数的顺序一般按照重要性来排,以fc为例:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录