未验证 提交 4ac2431f 编写于 作者: C Chen Weihang 提交者: GitHub

fix adam optimizer doc formula error, test=develop (#1164)

上级 c85a5f8e
...@@ -17,7 +17,7 @@ Adam更新如下: ...@@ -17,7 +17,7 @@ Adam更新如下:
.. math:: .. math::
learning\_rate=\frac{learning\_rate}{1-\beta_1^t} learning\_rate=\frac{learning\_rate}{1-\beta_1^t}
.. math:: .. math::
param\_out=param−learning\_rate*\frac{moment\_out}{inf\_norm\_out}\\ param\_out=param-learning\_rate*\frac{moment\_1}{\sqrt{moment\_2}+\epsilon}\\
参数: 参数:
- **learning_rate** (float|Variable)-学习率,用于更新参数。作为数据参数,可以是一个浮点类型值或有一个浮点类型值的变量 - **learning_rate** (float|Variable)-学习率,用于更新参数。作为数据参数,可以是一个浮点类型值或有一个浮点类型值的变量
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册