未验证 提交 03eb40a0 编写于 作者: C ceci3 提交者: GitHub

add docs about syncbn && weight_norm && remove_weight_norm (#2399)

* add docs
上级 3fe206d6
......@@ -28,6 +28,7 @@ paddle.nn
nn_cn/anchor_generator_cn.rst
nn_cn/assign_cn.rst
nn_cn/BatchNorm_cn.rst
nn_cn/SyncBatchNorm_cn.rst
nn_cn/beam_search_cn.rst
nn_cn/beam_search_decode_cn.rst
nn_cn/BilinearTensorProduct_cn.rst
......@@ -179,6 +180,8 @@ paddle.nn
nn_cn/yolo_box_cn.rst
nn_cn/loss_cn/MarginRankingLoss_cn.rst
nn_cn/functional_cn/margin_ranking_loss_cn.rst
nn_cn/weight_norm_cn.rst
nn_cn/remove_weight_norm_cn.rst
nn_cn/Dropout_cn.rst
nn_cn/Dropout2D_cn.rst
nn_cn/Dropout3D_cn.rst
......
.. _cn_api_nn_SyncBatchNorm:
SyncBatchNorm
-------------------------------
.. py:class:: paddle.nn.SyncBatchNorm(num_features, epsilon=1e-5, momentum=0.9, track_running_stats=True, weight_attr=None, bias_attr=None, data_format='NCHW', name=None)
该接口用于构建 ``SyncBatchNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。实现了跨卡GPU同步的批归一化(Cross-GPU Synchronized Batch Normalization Layer)的功能,可用在其他层(类似卷积层和全连接层)之后进行归一化操作。根据所有GPU同一批次的数据按照通道计算的均值和方差进行归一化。更多详情请参考 : `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/pdf/1502.03167.pdf>`_
当模型处于训练模式时,:math:`\mu_{\beta}` 和 :math:`\sigma_{\beta}^{2}` 是所有GPU上同一minibatch的统计数据。计算公式如下:
.. math::
\mu_{\beta} &\gets \frac{1}{m} \sum_{i=1}^{m} x_i \quad &// mini-batch-mean \\
\sigma_{\beta}^{2} &\gets \frac{1}{m} \sum_{i=1}^{m}(x_i - \mu_{\beta})^2 \quad &// mini-batch-variance \\
- :math:`x` : 所有GPU上同一批输入数据
- :math:`m` : 所有GPU上同一批次数据的大小
当模型处于评估模式时,:math:`\mu_{\beta}` 和 :math:`\sigma_{\beta}^{2}` 是全局(或运行)统计数据(moving_mean和moving_variance, 这两个统计量通常来自预先训练好的模型)。计算公式如下:
.. math::
moving\_mean = moving\_mean * momentum + \mu_{\beta} * (1. - momentum) \quad &// global mean \\
moving\_variance = moving\_variance * momentum + \sigma_{\beta}^{2} * (1. - momentum) \quad &// global variance \\
归一化函数公式如下:
.. math::
\hat{x_i} &\gets \frac{x_i - \mu_\beta} {\sqrt{\sigma_{\beta}^{2} + \epsilon}} \quad &// normalize \\
y_i &\gets \gamma \hat{x_i} + \beta \quad &// scale-and-shift \\
- :math:`\epsilon` : 添加较小的值到方差中以防止除零
- :math:`\gamma` : 可训练的比例参数
- :math:`\beta` : 可训练的偏差参数
参数:
- **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。
- **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。
- **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。
- **weight_attr** (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果设置为 ``False`` ,则表示本层没有可训练的权重参数。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **bias_attr** (ParamAttr|bool, 可选) - 指定偏置参数属性的对象。如果设置为 ``False`` ,则表示本层没有可训练的偏置参数。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **track_running_stats** (bool, 可选)- 是否计算全局均值和方差。默认: ``True`` ,表示计算全局均值和方差。
形状:
- input: 一个二维到五维的 ``Tensor`` 。
- output: 和input 相同形状的 ``Tensor`` 。
**代码示例**
.. code-block:: python
import paddle
import paddle.nn as nn
import numpy as np
x = np.array([[[[0.3, 0.4], [0.3, 0.07]], [[0.83, 0.37], [0.18, 0.93]]]]).astype('float32')
paddle.disable_static()
x = paddle.to_tensor(x)
if paddle.fluid.is_compiled_with_cuda():
sync_batch_norm = nn.SyncBatchNorm(2)
hidden1 = sync_batch_norm(x)
print(hidden1.numpy())
# [[[[0.26824948, 1.0936325],[0.26824948, -1.6301316]],[[ 0.8095662, -0.665287],[-1.2744656, 1.1301866 ]]]]
.. _cn_api_nn_cn_remove_weight_norm:
remove_weight_norm
-------------------------------
.. py:function:: paddle.nn.utils.remove_weight_norm(layer, name='weight')
移除传入 ``layer`` 中的权重归一化。
参数:
- **layer** (paddle.nn.Layer) - 要添加权重归一化的层。
- **name** (str, 可选) - 权重参数的名字。默认:'weight'.
返回:
``Layer`` , 移除权重归一化hook之后的层
**代码示例**
.. code-block:: python
import paddle
from paddle.nn import Conv2d
from paddle.nn.utils import weight_norm, remove_weight_norm
paddle.disable_static()
conv = Conv2d(3, 5, 3)
wn = weight_norm(conv)
remove_weight_norm(conv)
# print(conv.weight_g)
# AttributeError: 'Conv2D' object has no attribute 'weight_g'
.. _cn_api_nn_cn_weight_norm:
weight_norm
-------------------------------
.. py:function:: paddle.nn.utils.weight_norm(layer, name='weight', dim=0)
该接口根据以下公式对传入的 ``layer`` 中的权重参数进行归一化:
.. math::
\mathbf{w} = g \dfrac{v}{\|v\|}
权重归一化可以将神经网络中权重向量的长度与其方向解耦,权重归一化可以用两个变量(例如: 代表长度的变量 `weight_g` 和代表方向的变量 `weight_v`)来代替由名字(例如: `weight`)指定的变量。详细可以参考论文: `A Simple Reparameterization to Accelerate Training of Deep Neural Networks <https://arxiv.org/pdf/1602.07868.pdf>`_
参数:
- **layer** (paddle.nn.Layer) - 要添加权重归一化的层。
- **name** (str, 可选) - 权重参数的名字。默认:'weight'.
- **dim** (int|None, 可选) - 进行归一化操作的切片所在维度,是小于权重Tensor rank的非负数。比如卷积的权重shape是 [cout,cin,kh,kw] , rank是4,则dim可以选0,1,2,3;fc的权重shape是 [cout,cin] ,rank是2,dim可以选0,1。 如果为None就对所有维度上的元素做归一化。默认:0。
返回:
``Layer`` , 添加了权重归一化hook的层
**代码示例**
.. code-block:: python
import numpy as np
import paddle
from paddle.nn import Conv2d
from paddle.nn.utils import weight_norm
x = np.array([[[[0.3, 0.4], [0.3, 0.07]], [[0.83, 0.37], [0.18, 0.93]]]]).astype('float32')
paddle.disable_static()
conv = Conv2d(3, 5, 3)
wn = weight_norm(conv)
print(conv.weight_g.shape)
# [5]
print(conv.weight_v.shape)
# [5, 3, 3, 3]
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册