Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
03eb40a0
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
体验新版 GitCode,发现更多精彩内容 >>
未验证
提交
03eb40a0
编写于
8月 26, 2020
作者:
C
ceci3
提交者:
GitHub
8月 26, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add docs about syncbn && weight_norm && remove_weight_norm (#2399)
* add docs
上级
3fe206d6
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
134 addition
and
0 deletion
+134
-0
doc/fluid/api_cn/nn_cn.rst
doc/fluid/api_cn/nn_cn.rst
+3
-0
doc/fluid/api_cn/nn_cn/SyncBatchNorm_cn.rst
doc/fluid/api_cn/nn_cn/SyncBatchNorm_cn.rst
+64
-0
doc/fluid/api_cn/nn_cn/remove_weight_norm_cn.rst
doc/fluid/api_cn/nn_cn/remove_weight_norm_cn.rst
+29
-0
doc/fluid/api_cn/nn_cn/weight_norm_cn.rst
doc/fluid/api_cn/nn_cn/weight_norm_cn.rst
+38
-0
未找到文件。
doc/fluid/api_cn/nn_cn.rst
浏览文件 @
03eb40a0
...
...
@@ -28,6 +28,7 @@ paddle.nn
nn_cn/anchor_generator_cn.rst
nn_cn/assign_cn.rst
nn_cn/BatchNorm_cn.rst
nn_cn/SyncBatchNorm_cn.rst
nn_cn/beam_search_cn.rst
nn_cn/beam_search_decode_cn.rst
nn_cn/BilinearTensorProduct_cn.rst
...
...
@@ -179,6 +180,8 @@ paddle.nn
nn_cn/yolo_box_cn.rst
nn_cn/loss_cn/MarginRankingLoss_cn.rst
nn_cn/functional_cn/margin_ranking_loss_cn.rst
nn_cn/weight_norm_cn.rst
nn_cn/remove_weight_norm_cn.rst
nn_cn/Dropout_cn.rst
nn_cn/Dropout2D_cn.rst
nn_cn/Dropout3D_cn.rst
...
...
doc/fluid/api_cn/nn_cn/SyncBatchNorm_cn.rst
0 → 100644
浏览文件 @
03eb40a0
.. _cn_api_nn_SyncBatchNorm:
SyncBatchNorm
-------------------------------
.. py:class:: paddle.nn.SyncBatchNorm(num_features, epsilon=1e-5, momentum=0.9, track_running_stats=True, weight_attr=None, bias_attr=None, data_format='NCHW', name=None)
该接口用于构建 ``SyncBatchNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。实现了跨卡GPU同步的批归一化(Cross-GPU Synchronized Batch Normalization Layer)的功能,可用在其他层(类似卷积层和全连接层)之后进行归一化操作。根据所有GPU同一批次的数据按照通道计算的均值和方差进行归一化。更多详情请参考 : `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/pdf/1502.03167.pdf>`_
当模型处于训练模式时,:math:`\mu_{\beta}` 和 :math:`\sigma_{\beta}^{2}` 是所有GPU上同一minibatch的统计数据。计算公式如下:
.. math::
\mu_{\beta} &\gets \frac{1}{m} \sum_{i=1}^{m} x_i \quad &// mini-batch-mean \\
\sigma_{\beta}^{2} &\gets \frac{1}{m} \sum_{i=1}^{m}(x_i - \mu_{\beta})^2 \quad &// mini-batch-variance \\
- :math:`x` : 所有GPU上同一批输入数据
- :math:`m` : 所有GPU上同一批次数据的大小
当模型处于评估模式时,:math:`\mu_{\beta}` 和 :math:`\sigma_{\beta}^{2}` 是全局(或运行)统计数据(moving_mean和moving_variance, 这两个统计量通常来自预先训练好的模型)。计算公式如下:
.. math::
moving\_mean = moving\_mean * momentum + \mu_{\beta} * (1. - momentum) \quad &// global mean \\
moving\_variance = moving\_variance * momentum + \sigma_{\beta}^{2} * (1. - momentum) \quad &// global variance \\
归一化函数公式如下:
.. math::
\hat{x_i} &\gets \frac{x_i - \mu_\beta} {\sqrt{\sigma_{\beta}^{2} + \epsilon}} \quad &// normalize \\
y_i &\gets \gamma \hat{x_i} + \beta \quad &// scale-and-shift \\
- :math:`\epsilon` : 添加较小的值到方差中以防止除零
- :math:`\gamma` : 可训练的比例参数
- :math:`\beta` : 可训练的偏差参数
参数:
- **num_features** (int) - 指明输入 ``Tensor`` 的通道数量。
- **epsilon** (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。
- **momentum** (float, 可选) - 此值用于计算 ``moving_mean`` 和 ``moving_var`` 。默认值:0.9。更新公式如上所示。
- **weight_attr** (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果设置为 ``False`` ,则表示本层没有可训练的权重参数。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **bias_attr** (ParamAttr|bool, 可选) - 指定偏置参数属性的对象。如果设置为 ``False`` ,则表示本层没有可训练的偏置参数。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **track_running_stats** (bool, 可选)- 是否计算全局均值和方差。默认: ``True`` ,表示计算全局均值和方差。
形状:
- input: 一个二维到五维的 ``Tensor`` 。
- output: 和input 相同形状的 ``Tensor`` 。
**代码示例**
.. code-block:: python
import paddle
import paddle.nn as nn
import numpy as np
x = np.array([[[[0.3, 0.4], [0.3, 0.07]], [[0.83, 0.37], [0.18, 0.93]]]]).astype('float32')
paddle.disable_static()
x = paddle.to_tensor(x)
if paddle.fluid.is_compiled_with_cuda():
sync_batch_norm = nn.SyncBatchNorm(2)
hidden1 = sync_batch_norm(x)
print(hidden1.numpy())
# [[[[0.26824948, 1.0936325],[0.26824948, -1.6301316]],[[ 0.8095662, -0.665287],[-1.2744656, 1.1301866 ]]]]
doc/fluid/api_cn/nn_cn/remove_weight_norm_cn.rst
0 → 100644
浏览文件 @
03eb40a0
.. _cn_api_nn_cn_remove_weight_norm:
remove_weight_norm
-------------------------------
.. py:function:: paddle.nn.utils.remove_weight_norm(layer, name='weight')
移除传入 ``layer`` 中的权重归一化。
参数:
- **layer** (paddle.nn.Layer) - 要添加权重归一化的层。
- **name** (str, 可选) - 权重参数的名字。默认:'weight'.
返回:
``Layer`` , 移除权重归一化hook之后的层
**代码示例**
.. code-block:: python
import paddle
from paddle.nn import Conv2d
from paddle.nn.utils import weight_norm, remove_weight_norm
paddle.disable_static()
conv = Conv2d(3, 5, 3)
wn = weight_norm(conv)
remove_weight_norm(conv)
# print(conv.weight_g)
# AttributeError: 'Conv2D' object has no attribute 'weight_g'
doc/fluid/api_cn/nn_cn/weight_norm_cn.rst
0 → 100644
浏览文件 @
03eb40a0
.. _cn_api_nn_cn_weight_norm:
weight_norm
-------------------------------
.. py:function:: paddle.nn.utils.weight_norm(layer, name='weight', dim=0)
该接口根据以下公式对传入的 ``layer`` 中的权重参数进行归一化:
.. math::
\mathbf{w} = g \dfrac{v}{\|v\|}
权重归一化可以将神经网络中权重向量的长度与其方向解耦,权重归一化可以用两个变量(例如: 代表长度的变量 `weight_g` 和代表方向的变量 `weight_v`)来代替由名字(例如: `weight`)指定的变量。详细可以参考论文: `A Simple Reparameterization to Accelerate Training of Deep Neural Networks <https://arxiv.org/pdf/1602.07868.pdf>`_
参数:
- **layer** (paddle.nn.Layer) - 要添加权重归一化的层。
- **name** (str, 可选) - 权重参数的名字。默认:'weight'.
- **dim** (int|None, 可选) - 进行归一化操作的切片所在维度,是小于权重Tensor rank的非负数。比如卷积的权重shape是 [cout,cin,kh,kw] , rank是4,则dim可以选0,1,2,3;fc的权重shape是 [cout,cin] ,rank是2,dim可以选0,1。 如果为None就对所有维度上的元素做归一化。默认:0。
返回:
``Layer`` , 添加了权重归一化hook的层
**代码示例**
.. code-block:: python
import numpy as np
import paddle
from paddle.nn import Conv2d
from paddle.nn.utils import weight_norm
x = np.array([[[[0.3, 0.4], [0.3, 0.07]], [[0.83, 0.37], [0.18, 0.93]]]]).astype('float32')
paddle.disable_static()
conv = Conv2d(3, 5, 3)
wn = weight_norm(conv)
print(conv.weight_g.shape)
# [5]
print(conv.weight_v.shape)
# [5, 3, 3, 3]
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录