LayerNorm_cn.rst 2.7 KB
Newer Older
H
Hao Wang 已提交
1 2 3 4 5
.. _cn_api_fluid_dygraph_LayerNorm:

LayerNorm
-------------------------------

Y
Youwei Song 已提交
6
.. py:class:: paddle.fluid.dygraph.LayerNorm(normalized_shape, scale=True, shift=True, begin_norm_axis=1, epsilon=1e-05, param_attr=None, bias_attr=None, act=None, dtype="float32")
H
Hao Wang 已提交
7

8
该接口用于构建 ``LayerNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了层归一化层(Layer Normalization Layer)的功能,其可以应用于小批量输入数据。更多详情请参考:`Layer Normalization <https://arxiv.org/pdf/1607.06450v1.pdf>`_
H
Hao Wang 已提交
9

10
计算公式如下
H
Hao Wang 已提交
11

12 13
.. math::
            \\\mu=\frac{1}{H}\sum_{i=1}^{H}x_i\\
H
Hao Wang 已提交
14

15
            \\\sigma=\sqrt{\frac{1}{H}\sum_i^H{(x_i-\mu)^2} + \epsilon}\\
H
Hao Wang 已提交
16

17
             \\y=f(\frac{g}{\sigma}(x-\mu) + b)\\
H
Hao Wang 已提交
18

19 20 21 22 23
- :math:`x` : 该层神经元的向量表示
- :math:`H` : 层中隐藏神经元个数
- :math:`\epsilon` : 添加较小的值到方差中以防止除零
- :math:`g` : 可训练的比例参数
- :math:`b` : 可训练的偏差参数
H
Hao Wang 已提交
24 25


26
参数:
Y
Youwei Song 已提交
27
    - **normalized_shape** (int 或 list 或 tuple) – 需规范化的shape,期望的输入shape为 ``[*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]]``。如果是单个整数,则此模块将在最后一个维度上规范化(此时最后一维的维度需与该参数相同)。
28 29 30 31 32 33
    - **scale** (bool, 可选) - 指明是否在归一化后学习自适应增益 ``g`` 。默认值:True。
    - **shift** (bool, 可选) - 指明是否在归一化后学习自适应偏差 ``b`` 。默认值:True。
    - **epsilon** (float, 可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。
    - **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
    - **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
    - **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。
Y
Youwei Song 已提交
34
    - **dtype** (str,可选) - 输出Tensor或LoDTensor的数据类型,数据类型必须为:float32或float64,默认为float32。
H
Hao Wang 已提交
35 36


37
返回:无
H
Hao Wang 已提交
38 39 40

**代码示例**

41
.. code-block:: python
H
Hao Wang 已提交
42 43

    import paddle.fluid as fluid
44
    from paddle.fluid.dygraph.base import to_variable
H
Hao Wang 已提交
45 46
    import numpy

47
    x = numpy.random.random((3, 32, 32)).astype('float32')
H
Hao Wang 已提交
48
    with fluid.dygraph.guard():
49
        x = to_variable(x)
50 51
        layerNorm = fluid.LayerNorm([32, 32])
        ret = layerNorm(x)
H
Hao Wang 已提交
52 53