From 2d93e595bc51ba719f142315c3d3da18ab9f3b8f Mon Sep 17 00:00:00 2001 From: dengkaipeng Date: Thu, 15 Nov 2018 13:10:29 +0800 Subject: [PATCH] fix image and link error --- .../layers/learning_rate_scheduler.rst | 39 ++++++++++--------- 1 file changed, 21 insertions(+), 18 deletions(-) diff --git a/doc/fluid/api/api_guides/low_level/layers/learning_rate_scheduler.rst b/doc/fluid/api/api_guides/low_level/layers/learning_rate_scheduler.rst index dbe350edc..43fe2fc2c 100644 --- a/doc/fluid/api/api_guides/low_level/layers/learning_rate_scheduler.rst +++ b/doc/fluid/api/api_guides/low_level/layers/learning_rate_scheduler.rst @@ -1,12 +1,15 @@ -.. api_guide_learning_rate_scheduler +.. _api_guide_learning_rate_scheduler: -###### +############ 学习率调度器 -##### +############ 当我们使用诸如梯度下降法等方式来训练模型时,一般会兼顾训练速度和损失(loss)选择相对合适的学习率,但若在训练过程中一直使用一个学习率的话,训练集的损失下降到一定程度后就会不在继续下降了,而是在一定范围内震荡。其震荡原理如下图所示,即当损失函数收敛到局部极小值附近时,会由于学习率过大而导致更新步幅过大而越过极小值而出现震荡。 -![梯度下降法在损失函数极小值时更新情况](../../../../images/learning_rate_scheduler.png) +.. image:: ../../../../images/learning_rate_scheduler.png + :scale: 50 % + :align: center + 学习率调度器定义了常用的学习率衰减策略来动态生成学习率,学习率衰减函数以epoch或step为参数,返回一个随训练逐渐减小的学习率,从而兼顾降低训练时间和在局部极小值能更好寻优两个方面。 @@ -14,24 +17,24 @@ ====== -:code:`noam_decay`: 诺姆衰减,相关算法请参考[https://arxiv.org/pdf/1706.03762.pdf](Attention Is All You Need)。 -相关API Reference请参考:ref`api_fluid_layer_noam_decay` +* :code:`noam_decay`: 诺姆衰减,相关算法请参考 `《Attention Is All You Need》 `_ 。 + 相关API Reference请参考 :ref:`api_fluid_layers_noam_decay` -:code:`exponential_decay`: 指数衰减,即每次将当前学习率乘以给定的衰减率得到下一个学习率。 -相关API Reference请参考:ref`api_fluid_layer_exponential_decay` +* :code:`exponential_decay`: 指数衰减,即每次将当前学习率乘以给定的衰减率得到下一个学习率。 + 相关API Reference请参考 :ref:`api_fluid_layers_exponential_decay` -:code:`natual_exp_decay`: 自然指数衰减,即每次将当前学习率乘以给定的衰减率的自然指数得到下一个学习率。 -相关API Reference请参考:ref`api_fluid_layer_natual_exp_decay` +* :code:`natural_exp_decay`: 自然指数衰减,即每次将当前学习率乘以给定的衰减率的自然指数得到下一个学习率。 + 相关API Reference请参考 :ref:`api_fluid_layers_natural_exp_decay` -:code:`inverse_time_decay`: 逆时间衰减,即得到的学习率与当前衰减次数成反比。 -相关API Reference请参考:ref`api_fluid_layer_inverse_time_decay` +* :code:`inverse_time_decay`: 逆时间衰减,即得到的学习率与当前衰减次数成反比。 + 相关API Reference请参考 :ref:`api_fluid_layers_inverse_time_decay` -:code:`polynomial_decay`: 多项式衰减,即得到的学习率为初始学习率和给定最终学习之间由多项式计算权重定比分点的插值 -相关API Reference请参考:ref`api_fluid_layer_polynomial_decay` +* :code:`polynomial_decay`: 多项式衰减,即得到的学习率为初始学习率和给定最终学习之间由多项式计算权重定比分点的插值 + 相关API Reference请参考 :ref:`api_fluid_layers_polynomial_decay` -:code:`piecewise_decay`: 分段衰减,即由给定step数分段呈阶梯状衰减,每段内学习率相同。 -相关API Reference请参考:ref`api_fluid_layer_piecewise_decay` +* :code:`piecewise_decay`: 分段衰减,即由给定step数分段呈阶梯状衰减,每段内学习率相同。 + 相关API Reference请参考 :ref:`api_fluid_layers_piecewise_decay` -:code:`append_LARS`: 通过Layer-wise Adaptive Rate Scaling算法获得学习率,相关算法请参考[https://arxiv.org/abs/1802.09750](Train Feedfoward Neural Network with Layer-wise Adaptive Rate via Approximating Back-matching Propagation)。 -相关API Reference请参考:ref`api_fluid_layer_append_LARS` +* :code:`append_LARS`: 通过Layer-wise Adaptive Rate Scaling算法获得学习率,相关算法请参考 `《Train Feedfoward Neural Network with Layer-wise Adaptive Rate via Approximating Back-matching Propagation》 `_ 。 + 相关API Reference请参考 :ref:`api_fluid_layers_append_LARS` -- GitLab