From 51eda1ab3ccea2a8c1b8afe7fda064ac4aea6880 Mon Sep 17 00:00:00 2001 From: Travis CI Date: Fri, 3 Nov 2017 05:40:13 +0000 Subject: [PATCH] Deploy to GitHub Pages: aa5664c34cb9b56d4647a8040f5c3bbb4e9f693e --- develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt | 2 +- develop/doc_cn/faq/parameter/index_cn.html | 2 +- 2 files changed, 2 insertions(+), 2 deletions(-) diff --git a/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt b/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt index c721b62318..6fa0c64413 100644 --- a/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt +++ b/develop/doc_cn/_sources/faq/parameter/index_cn.rst.txt @@ -75,7 +75,7 @@ PaddlePaddle目前支持8种learning_rate_schedule,这8种learning_rate_schedu optimizer = paddle.optimizer.Adam( learning_rate=1e-3, - learning_rate_schedule="manual", + learning_rate_schedule="pass_manual", learning_rate_args="1:1.0,2:0.9,3:0.8",) 在该示例中,当已训练pass数小于等于1时,学习率为 :code:`1e-3 * 1.0`;当已训练pass数大于1小于等于2时,学习率为 :code:`1e-3 * 0.9`;当已训练pass数大于2时,学习率为 :code:`1e-3 * 0.8`。 diff --git a/develop/doc_cn/faq/parameter/index_cn.html b/develop/doc_cn/faq/parameter/index_cn.html index 241d6fded3..c85894f480 100644 --- a/develop/doc_cn/faq/parameter/index_cn.html +++ b/develop/doc_cn/faq/parameter/index_cn.html @@ -263,7 +263,7 @@

这是一种按已训练pass数分段取值的学习率退火方法。使用该learning_rate_schedule时,用户通过参数 learning_rate_args 设置学习率衰减因子分段函数,当前的学习率为所设置 learning_rate 与当前的衰减因子的乘积。以使用Adam算法为例,代码如下:

optimizer = paddle.optimizer.Adam(
     learning_rate=1e-3,
-    learning_rate_schedule="manual",
+    learning_rate_schedule="pass_manual",
     learning_rate_args="1:1.0,2:0.9,3:0.8",)
 
-- GitLab