conv3d_transpose_cn.rst 10.4 KB
Newer Older
H
Hao Wang 已提交
1 2 3 4 5
.. _cn_api_fluid_layers_conv3d_transpose:

conv3d_transpose
-------------------------------

L
liuwei1031 已提交
6
:api_attr: 声明式编程模式(静态图)
7

8
.. py:function:: paddle.fluid.layers.conv3d_transpose(input, num_filters, output_size=None, filter_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, name=None, data_format='NCDHW')
H
Hao Wang 已提交
9

L
lvmengsi 已提交
10
三维转置卷积层(Convlution3D transpose layer)
H
Hao Wang 已提交
11

12
该层根据输入(input)、滤波器(filter)和卷积核膨胀比例(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过output_size指定输出特征层大小。输入(Input)和输出(Output)为NCDHW或者NDHWC格式。其中N为批尺寸,C为通道数(channel),D为特征深度,H为特征层高度,W为特征层宽度。转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解卷积转置层细节,请参考下面的说明和 参考文献_ 。如果参数bias_attr不为False, 转置卷积计算会添加偏置项。如果act不为None,则转置卷积计算之后添加相应的激活函数。
H
Hao Wang 已提交
13 14 15

.. _参考文献: http://www.matthewzeiler.com/wp-content/uploads/2017/07/cvpr2010.pdf

L
lvmengsi 已提交
16
输入 :math:`X` 和输出 :math:`Out` 函数关系如下:
H
Hao Wang 已提交
17 18 19 20 21

.. math::
                        \\Out=\sigma (W*X+b)\\

其中:
22 23
    -  :math:`X` : 输入,具有NCDHW或NDHWC格式的5-D Tensor
    -  :math:`W` : 滤波器,具有NCDHW格式的5-D Tensor
L
lvmengsi 已提交
24
    -  :math:`*` : 卷积操作(注意:转置卷积本质上的计算还是卷积)
25
    -  :math:`b` : 偏置(bias),2-D Tensor,形状为 ``[M,1]``
H
Hao Wang 已提交
26
    -  :math:`σ` : 激活函数
27
    -  :math:`Out` : 输出值,NCDHW或NDHWC格式的5-D Tensor,和 ``X`` 的形状可能不同
H
Hao Wang 已提交
28

L
lvmengsi 已提交
29
**示例**
H
Hao Wang 已提交
30 31 32

输入:

L
lvmengsi 已提交
33
    输入的shape::math:`(N,C_{in}, D_{in}, H_{in}, W_{in})`
H
Hao Wang 已提交
34

L
lvmengsi 已提交
35
    滤波器的shape::math:`(C_{in}, C_{out}, D_f, H_f, W_f)`
H
Hao Wang 已提交
36 37 38 39 40



输出:

L
lvmengsi 已提交
41
    输出的shape::math:`(N,C_{out}, D_{out}, H_{out}, W_{out})`
H
Hao Wang 已提交
42 43 44 45 46 47


其中:

.. math::

48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67
    & D'_{out}=(D_{in}-1)*strides[0] - pad\_depth\_front - pad\_depth\_back + dilations[0]*(D_f-1)+1\\
    & H'_{out}=(H_{in}-1)*strides[1] - pad\_height\_top - pad\_height\_bottom + dilations[1]*(H_f-1)+1\\
    & W'_{out}=(W_{in}-1)*strides[2] - pad\_width\_left - pad\_width\_right + dilations[2]*(W_f-1)+1\\
    & D_{out}\in[D'_{out},D'_{out} + strides[0])\\
    & H_{out}\in[H'_{out},H'_{out} + strides[1])\\
    & W_{out}\in[W'_{out},W'_{out} + strides[2])\\

如果 ``padding`` = "SAME":

.. math::
    D'_{out} = \frac{(D_{in} + stride[0] - 1)}{stride[0]}\\
    H'_{out} = \frac{(H_{in} + stride[1] - 1)}{stride[1]}\\
    W'_{out} = \frac{(W_{in} + stride[2] - 1)}{stride[2]}\\

如果 ``padding`` = "VALID":

.. math::
    D'_{out}=(D_{in}-1)*strides[0] + dilations[0]*(D_f-1)+1\\
    H'_{out}=(H_{in}-1)*strides[1] + dilations[1]*(H_f-1)+1\\
    W'_{out}=(W_{in}-1)*strides[2] + dilations[2]*(W_f-1)+1\\
H
Hao Wang 已提交
68

L
lvmengsi 已提交
69
注意:
H
Hao Wang 已提交
70

71
如果output_size为None,则 :math:`D_{out}` = :math:`D^\prime_{out}` , :math:`H_{out}` = :math:`H^\prime_{out}` , :math:`W_{out}` = :math:`W^\prime_{out}` ;否则,指定的output_size_depth(输出特征层的深度) :math:`D_{out}` 应当介于 :math:`D^\prime_{out}` 和 :math:`D^\prime_{out} + strides[0]` 之间(不包含 :math:`D^\prime_{out} + strides[0]` ),指定的output_size_height(输出特征层的高) :math:`H_{out}` 应当介于 :math:`H^\prime_{out}` 和 :math:`H^\prime_{out} + strides[1]` 之间(不包含 :math:`H^\prime_{out} + strides[1]` ), 并且指定的output_size_width(输出特征层的宽) :math:`W_{out}` 应当介于 :math:`W^\prime_{out}` 和 :math:`W^\prime_{out} + strides[2]` 之间(不包含 :math:`W^\prime_{out} + strides[2]` )。
H
Hao Wang 已提交
72

L
lvmengsi 已提交
73
由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。
H
Hao Wang 已提交
74

L
lvmengsi 已提交
75
如果指定了output_size, ``conv3d_transpose`` 可以自动计算滤波器的大小。
H
Hao Wang 已提交
76 77

参数:
78
  - **input** (Variable)- 形状为 :math:`[N, C, D, H, W]` 或 :math:`[N, D, H, W, C]` 的5-D Tensor,N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度,数据类型:float32或float64。
L
lvmengsi 已提交
79
  - **num_filters** (int) - 滤波器(卷积核)的个数,与输出的图片的通道数相同。
80 81 82 83 84 85 86 87 88 89 90
  - **output_size** (int|tuple,可选) - 输出图片的大小。如果output_size是一个元组,则必须包含三个整型数,(output_size_depth,output_size_height,output_size_width)。如果output_size=None,则内部会使用filter_size、padding和stride来计算output_size。如果output_size和filter_size是同时指定的,那么它们应满足上面的公式。默认:None。output_size和filter_size不能同时为None。
  - **filter_size** (int|tuple,可选) - 滤波器大小。如果filter_size是一个元组,则必须包含三个整型数,(filter_size_depth,filter_size_height, filter_size_width)。否则,filter_size_depth = filter_size_height = filter_size_width = filter_size。如果filter_size=None,则必须指定output_size, ``conv2d_transpose`` 内部会根据output_size、padding和stride计算出滤波器大小。默认:None。output_size和filter_size不能同时为None。
  - **padding** (int|list|tuple|str,可选) - 填充padding大小。padding参数在输入特征层每边添加 ``dilation * (kernel_size - 1) - padding`` 个0。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 ``padding`` = "SAME"或  ``padding`` = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式:(1)包含5个二元组:当 ``data_format`` 为"NCDHW"时为 [[0,0], [0,0], [pad_depth_front, pad_depth_back], [pad_height_top, pad_height_bottom], [pad_width_left, pad_width_right]],当 ``data_format`` 为"NDHWC"时为[[0,0], [pad_depth_front, pad_depth_back], [pad_height_top, pad_height_bottom], [pad_width_left, pad_width_right], [0,0]];(2)包含6个整数值:[pad_depth_front, pad_depth_back, pad_height_top, pad_height_bottom, pad_width_left, pad_width_right];(3)包含3个整数值:[pad_depth, pad_height, pad_width],此时 pad_depth_front = pad_depth_back = pad_depth, pad_height_top = pad_height_bottom = pad_height, pad_width_left = pad_width_right = pad_width。若为一个整数,pad_depth = pad_height = pad_width = padding。默认值:0。
  - **stride** (int|tuple,可选) - 步长stride大小。滤波器和输入进行卷积计算时滑动的步长。如果stride是一个元组,那么元组的形式为(stride_depth,stride_height,stride_width)。否则,stride_depth = stride_height = stride_width = stride。默认:stride = 1。
  - **dilation** (int|tuple,可选) - 膨胀比例dilation大小。空洞卷积时会指该参数,滤波器对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息,根据 `可视化效果图 <https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md>`_ 较好理解。如果膨胀比例dilation是一个元组,那么元组的形式为(dilation_depth,dilation_height, dilation_width)。否则,dilation_depth = dilation_height = dilation_width = dilation。默认:dilation= 1。
  - **groups** (int,可选) - 三维转置卷积层的组数。从Alex Krizhevsky的CNN Deep论文中的群卷积中受到启发,当group=2时,输入和滤波器分别根据通道数量平均分为两组,第一组滤波器和第一组输入进行卷积计算,第二组滤波器和第二组输入进行卷积计算。默认:group = 1。
  - **param_attr** (ParamAttr,可选) :指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。conv3d_transpose算子默认的权重初始化是Xavier。
  - **bias_attr** (ParamAttr|False,可选)- 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。conv3d_transpose算子默认的偏置初始化是0.0。
  - **use_cudnn** (bool,可选) - 是否使用cudnn内核,只有已安装cudnn库时才有效。默认:True。
  - **act** (str,可选) -  激活函数类型,如果设置为None,则不使用激活函数。默认:None。
  - **name** (str,可选) – 具体用法请参见 :ref:`cn_api_guide_Name` ,一般无需设置,默认值为None。
91
  - **data_format** (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCDHW"和"NDHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCDHW"。
92 93

返回:5-D Tensor,数据类型与 ``input`` 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。
L
lvmengsi 已提交
94 95 96

返回类型:Variable

97
抛出异常:
98 99
    - ``ValueError`` - 如果输入的shape、filter_size、stride、padding和groups不匹配。
    - ``ValueError`` - 如果 ``data_format`` 既不是"NCDHW"也不是"NDHWC"。
100 101
    - ``ValueError`` - 如果 ``padding`` 是字符串,既不是"SAME"也不是"VALID"。
    - ``ValueError`` - 如果 ``padding`` 含有5个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。
102 103 104 105
    - ``ValueError`` - 如果 ``output_size`` 和 ``filter_size`` 同时为None。
    - ``ShapeError`` - 如果输入不是5-D Tensor。
    - ``ShapeError`` - 如果输入和滤波器的维度大小不相同。
    - ``ShapeError`` - 如果输入的维度大小与 ``stride`` 之差不是2。
106 107

**代码示例**
H
Hao Wang 已提交
108 109 110 111

..  code-block:: python

    import paddle.fluid as fluid
L
lvmengsi 已提交
112
    import numpy as np
H
Hao Wang 已提交
113
    data = fluid.layers.data(name='data', shape=[3, 12, 32, 32], dtype='float32')
L
lvmengsi 已提交
114
    param_attr = fluid.ParamAttr(name='conv3d.weight', initializer=fluid.initializer.Xavier(uniform=False), learning_rate=0.001)
L
Lv Mengsi 已提交
115
    res = fluid.layers.conv3d_transpose(input=data, num_filters=2, filter_size=3, act="relu", param_attr=param_attr)
L
lvmengsi 已提交
116 117 118 119 120 121
    place = fluid.CPUPlace()
    exe = fluid.Executor(place)
    exe.run(fluid.default_startup_program())
    x = np.random.rand(1, 3, 12, 32, 32).astype("float32")
    output = exe.run(feed={"data": x}, fetch_list=[res])
    print(output)