From ffcef8830d26907f6fa24da49513d490018467b4 Mon Sep 17 00:00:00 2001 From: Chen Weihang Date: Wed, 1 Jan 2020 09:29:09 +0800 Subject: [PATCH] update parameter_list data type (#1698) --- doc/fluid/api_cn/backward_cn/append_backward_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/AdagradOptimizer_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/AdamOptimizer_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/AdamaxOptimizer_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/DecayedAdagradOptimizer_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/LambOptimizer_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/MomentumOptimizer_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/RMSPropOptimizer_cn.rst | 2 +- doc/fluid/api_cn/optimizer_cn/SGDOptimizer_cn.rst | 2 +- 9 files changed, 9 insertions(+), 9 deletions(-) diff --git a/doc/fluid/api_cn/backward_cn/append_backward_cn.rst b/doc/fluid/api_cn/backward_cn/append_backward_cn.rst index 74ea1fe33..b65d43bf8 100644 --- a/doc/fluid/api_cn/backward_cn/append_backward_cn.rst +++ b/doc/fluid/api_cn/backward_cn/append_backward_cn.rst @@ -14,7 +14,7 @@ append_backward 参数: - **loss** ( :ref:`api_guide_Variable` ) - 网络的损失变量。 - - **parameter_list** (list [str],可选)- 指定优化器需要更新的参数名称列表。如果为 ``None`` ,则将更新所有参数。默认值为 ``None``。 + - **parameter_list** (list [Variable|str],可选)- 指定优化器需要更新的参数或参数名称列表。如果为 ``None`` ,则将更新所有参数。默认值为 ``None``。 - **no_grad_set** (set [str],可选)- 在 `block0` ( :ref:`api_guide_Block` ) 中要忽略梯度的 :ref:`api_guide_Variable` 的名字的集合。所有的 :ref:`api_guide_Block` 中带有 ``stop_gradient = True`` 的所有 :ref:`api_guide_Variable` 的名字都会被自动添加到此集合中。如果该参数不为 ``None``,则会将该参数集合的内容添加到默认的集合中。默认值为 ``None``。 - **callbacks** (list [callable object],可选)- 回调函数列表。用于在反向传播构建中执行一些自定义作业。每次将新的梯度OP添加到程序中时,将调用其中的所有可调用对象。可调用对象必须有两个输入参数: :ref:`api_guide_Block` 和 ``context`` 。 :ref:`api_guide_Block` 是将被添加到新梯度算子的块。 ``context`` 是一个映射,其键是梯度 :ref:`api_guide_Variable` 名,值是对应的原始 :ref:`api_guide_Variable` 。除此之外, ``context`` 还有另一个特殊的键值对:键是字符串 ``__ current_op_desc__`` ,值是刚刚触发可调用对象的梯度OP的 ``op_desc`` 。默认值为 ``None``。 diff --git a/doc/fluid/api_cn/optimizer_cn/AdagradOptimizer_cn.rst b/doc/fluid/api_cn/optimizer_cn/AdagradOptimizer_cn.rst index 4493a62b7..e4004fe51 100644 --- a/doc/fluid/api_cn/optimizer_cn/AdagradOptimizer_cn.rst +++ b/doc/fluid/api_cn/optimizer_cn/AdagradOptimizer_cn.rst @@ -56,7 +56,7 @@ Adaptive Gradient 优化器(自适应梯度优化器,简称Adagrad)可以针 参数: - **loss** (Variable) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameter_list中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameter_list** (list, 可选) – 待更新的Parameter组成的列表, 默认值为None,此时将更新所有的Parameter + - **parameter_list** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter的集合,默认值为None - **grad_clip** (GradClipBase, 可选) – 梯度裁剪的策略,静态图模式不需要使用本参数,当前本参数只支持在dygraph模式下的梯度裁剪,未来本参数可能会调整,默认值为None diff --git a/doc/fluid/api_cn/optimizer_cn/AdamOptimizer_cn.rst b/doc/fluid/api_cn/optimizer_cn/AdamOptimizer_cn.rst index 26954add5..575f1d8ab 100644 --- a/doc/fluid/api_cn/optimizer_cn/AdamOptimizer_cn.rst +++ b/doc/fluid/api_cn/optimizer_cn/AdamOptimizer_cn.rst @@ -126,7 +126,7 @@ Adam优化器出自 `Adam论文 `_ 的第二节 参数: - **loss** (Variable) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameter_list中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameter_list** (list, 可选) – 待更新的Parameter组成的列表, 默认值为None,此时将更新所有的Parameter + - **parameter_list** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter的集合,默认值为None - **grad_clip** (GradClipBase, 可选) – 梯度裁剪的策略,静态图模式不需要使用本参数,当前本参数只支持在dygraph模式下的梯度裁剪,未来本参数可能会调整,默认值为None diff --git a/doc/fluid/api_cn/optimizer_cn/AdamaxOptimizer_cn.rst b/doc/fluid/api_cn/optimizer_cn/AdamaxOptimizer_cn.rst index 85b3817d4..52ba98bdf 100644 --- a/doc/fluid/api_cn/optimizer_cn/AdamaxOptimizer_cn.rst +++ b/doc/fluid/api_cn/optimizer_cn/AdamaxOptimizer_cn.rst @@ -70,7 +70,7 @@ Adamax优化器是参考 `Adam论文 `_ 第7节 参数: - **loss** (Variable) – 需要最小化的损失值变量 - **startup_program** (Program, 可选) – 用于初始化parameter_list中参数的 :ref:`cn_api_fluid_Program` , 默认值为None,此时将使用 :ref:`cn_api_fluid_default_startup_program` - - **parameter_list** (list, 可选) – 待更新的Parameter组成的列表, 默认值为None,此时将更新所有的Parameter + - **parameter_list** (list, 可选) – 待更新的Parameter或者Parameter.name组成的列表, 默认值为None,此时将更新所有的Parameter - **no_grad_set** (set, 可选) – 不需要更新的Parameter的集合,默认值为None - **grad_clip** (GradClipBase, 可选) – 梯度裁剪的策略,静态图模式不需要使用本参数,当前本参数只支持在dygraph模式下的梯度裁剪,未来本参数可能会调整,默认值为None diff --git a/doc/fluid/api_cn/optimizer_cn/DecayedAdagradOptimizer_cn.rst b/doc/fluid/api_cn/optimizer_cn/DecayedAdagradOptimizer_cn.rst index 0cbf2e87f..f78d737f7 100644 --- a/doc/fluid/api_cn/optimizer_cn/DecayedAdagradOptimizer_cn.rst +++ b/doc/fluid/api_cn/optimizer_cn/DecayedAdagradOptimizer_cn.rst @@ -50,7 +50,7 @@ Decayed Adagrad优化器,可以看做是引入了衰减率的 `Adagrad