clip_cn.rst 4.4 KB
Newer Older
T
Tink_Y 已提交
1 2 3 4 5 6 7 8 9
#################
 fluid.clip
#################



.. _cn_api_fluid_clip_ErrorClipByValue:

ErrorClipByValue
H
1207  
Hao Wang 已提交
10
-------------------------------
T
Tink_Y 已提交
11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35

.. py:class:: paddle.fluid.clip.ErrorClipByValue(max, min=None)

将张量值的范围压缩到 [min, max]。


给定一个张量 ``t`` ,该操作将它的值压缩到 ``min`` 和 ``max``  之间

- 任何小于最小值的值都被设置为最小值

- 任何大于max的值都被设置为max

参数:
 - **max** (foat) - 要修剪的最大值。
 - **min** (float) - 要修剪的最小值。如果用户没有设置,将被 ``framework`` 设置为 ``-max`` 
  
**代码示例**
 
.. code-block:: python
        
     var = fluid.framework.Variable(..., error_clip=ErrorClipByValue(max=5.0), ...)




H
1207  
Hao Wang 已提交
36 37 38



T
Tink_Y 已提交
39 40 41 42

.. _cn_api_fluid_clip_GradientClipByGlobalNorm:

GradientClipByGlobalNorm
H
1207  
Hao Wang 已提交
43
-------------------------------
T
Tink_Y 已提交
44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81

.. py:class:: paddle.fluid.clip.GradientClipByGlobalNorm(clip_norm, group_name='default_group')
 
通过多个张量的范数之和的比率来剪切(clip)多个张量。

给定一个张量列表 :math:`t\_list` 和一个剪切比率 ``clip_norm`` ,返回一个被剪切的张量列表list_clipped和 :math:`t\_list` 中所有张量的全局范数(global_norm)。

剪切过程如下:

.. math::
            \\t\_list[i]=t\_list[i]∗\frac{clip\_norm}{max(global\_norm,clip\_norm)}\\
            
其中:

.. math::            
            \\global\_norm=\sqrt{\sum_{i=0}^{n-1}(l2norm(t\_list[i]))^2}\\


如果 :math:`clip\_norm>global\_norm` , :math:`t\_list` 中的张量保持不变,否则它们都会按照全局比率缩减。


参数:
 - **clip_norm** (float) - 范数最大值
 - **group_name** (str, optional) - 剪切的组名
  
**代码示例**
 
.. code-block:: python
        
    p_g_clip = fluid.backward.append_backward(loss=avg_cost_clip)

    with fluid.program_guard(main_program=prog_clip):
         fluid.clip.set_gradient_clip(
                               fluid.clip.GradientClipByGlobalNorm(clip_norm=2.0))
         p_g_clip = fluid.clip.append_gradient_clip_ops(p_g_clip)



H
1207  
Hao Wang 已提交
82 83 84



T
Tink_Y 已提交
85 86 87 88

.. _cn_api_fluid_clip_GradientClipByNorm:

GradientClipByNorm
H
1207  
Hao Wang 已提交
89
-------------------------------
T
Tink_Y 已提交
90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121

.. py:class:: paddle.fluid.clip.GradientClipByNorm(clip_norm)

将张量转换为L2范数不超过 ``clip_norm`` 的张量

该operator 限制了 输入张量 :math:`X` 的L2范数不会超过 :math:`max\_norm` 。如果 :math:`X` 的 ``L2`` 范数小于或等于 :math:`max\_norm` ,输出和 :math:`X` 一样,如果 :math:`X` 的L2范数大于 :math:`max\_norm` , :math:`X` 将被线性缩放到L2范数等于 :math:`max\_norm` ,如以下公式所示:

.. math::
            \\Out = \frac{max\_norm∗X}{norm(X)}\\

其中 :math:`norm(X)` 代表 :math:`X` 的 L2 范数


参数:
 - **clip_norm** (float) - 二范数最大值

  
**代码示例**
 
.. code-block:: python
        
    w_param_attrs = ParamAttr(name=None,
                              initializer=UniformInitializer(low=-1.0, high=1.0, seed=0),
                              learning_rate=1.0,
                              regularizer=L1Decay(1.0),
                              trainable=True,
                              clip=GradientClipByNorm(clip_norm=2.0))
    y_predict = fluid.layers.fc(input=x, size=1, param_attr=w_param_attrs)




H
1207  
Hao Wang 已提交
122 123 124



T
Tink_Y 已提交
125 126 127 128

.. _cn_api_fluid_clip_GradientClipByValue:

GradientClipByValue
H
1207  
Hao Wang 已提交
129
-------------------------------
T
Tink_Y 已提交
130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159

.. py:class:: paddle.fluid.clip.GradientClipByValue(max, min=None)

将梯度值(gradient values)的范围压缩到 [min, max]。


给定一个张量 ``t`` ,该操作将它的值压缩到 ``min`` 和 ``max`` 之间

- 任何小于最小值的值都被设置为最小值

- 任何大于max的值都被设置为max

参数:
 - **max** (foat) - 要修剪的最大值。
 - **min** (float,optional) - 要修剪的最小值。如果用户没有设置,将被 ``framework`` 设置为 ``-max`` 。
  
**代码示例**
 
.. code-block:: python
        
     w_param_attrs = ParamAttr(name=None,
                               initializer=UniformInitializer(low=-1.0, high=1.0, seed=0),
                               learning_rate=1.0,
                               regularizer=L1Decay(1.0),
                               trainable=True,
                               clip=GradientClipByValue(-1.0, 1.0))
     y_predict = fluid.layers.fc(input=x, size=1, param_attr=w_param_attrs)
     


H
1207  
Hao Wang 已提交
160 161 162



T
Tink_Y 已提交
163