diff --git a/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt b/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt index c721b623183cc7d8d17e2c9fb1635ea07b8970cc..6fa0c64413be1616a435640b0347904a49873349 100644 --- a/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt +++ b/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt @@ -75,7 +75,7 @@ PaddlePaddle目前支持8种learning_rate_schedule,这8种learning_rate_schedu optimizer = paddle.optimizer.Adam( learning_rate=1e-3, - learning_rate_schedule="manual", + learning_rate_schedule="pass_manual", learning_rate_args="1:1.0,2:0.9,3:0.8",) 在该示例中,当已训练pass数小于等于1时,学习率为 :code:`1e-3 * 1.0`;当已训练pass数大于1小于等于2时,学习率为 :code:`1e-3 * 0.9`;当已训练pass数大于2时,学习率为 :code:`1e-3 * 0.8`。 diff --git a/develop/doc_cn/faq/parameter/index_cn.html b/develop/doc_cn/faq/parameter/index_cn.html index 241d6fded35b210d18057da527fd9a280eed16a1..c85894f4801394074fc4d808cb4d6a16b5e75f6d 100644 --- a/develop/doc_cn/faq/parameter/index_cn.html +++ b/develop/doc_cn/faq/parameter/index_cn.html @@ -263,7 +263,7 @@
这是一种按已训练pass数分段取值的学习率退火方法。使用该learning_rate_schedule时,用户通过参数 learning_rate_args
设置学习率衰减因子分段函数,当前的学习率为所设置 learning_rate
与当前的衰减因子的乘积。以使用Adam算法为例,代码如下:
optimizer = paddle.optimizer.Adam(
learning_rate=1e-3,
- learning_rate_schedule="manual",
+ learning_rate_schedule="pass_manual",
learning_rate_args="1:1.0,2:0.9,3:0.8",)