提交 3f77f608 编写于 作者: F FDInSky 提交者: lvmengsi

update cn doc of "logsigmoid, softsign, softplus, softshrink, tanh,...

update cn doc of "logsigmoid, softsign, softplus, softshrink, tanh, tanh_shrink, NormalInitializer, TruncatedNormalInitializer, UniformInitializer" (#1265)

* test=develop update cn fluid doc

* test=develop update cn doc
上级 f5f8616a
...@@ -5,12 +5,12 @@ NormalInitializer ...@@ -5,12 +5,12 @@ NormalInitializer
.. py:class:: paddle.fluid.initializer.NormalInitializer(loc=0.0, scale=1.0, seed=0) .. py:class:: paddle.fluid.initializer.NormalInitializer(loc=0.0, scale=1.0, seed=0)
随机正态(高斯)分布初始化器 随机正态(高斯)分布初始化函数
参数: 参数:
- **loc** (float) - 正态分布的平均值 - **loc** (float) - 正态分布的平均值
- **scale** (float) - 正态分布的标准差 - **scale** (float) - 正态分布的标准差
- **seed** (int) - 随机种子 - **seed** (int) - 随机种子
**代码示例** **代码示例**
......
...@@ -5,12 +5,12 @@ TruncatedNormalInitializer ...@@ -5,12 +5,12 @@ TruncatedNormalInitializer
.. py:class:: paddle.fluid.initializer.TruncatedNormalInitializer(loc=0.0, scale=1.0, seed=0) .. py:class:: paddle.fluid.initializer.TruncatedNormalInitializer(loc=0.0, scale=1.0, seed=0)
Random Truncated Normal(高斯)分布初始化器 Random Truncated Normal(高斯)分布初始化函数
参数: 参数:
- **loc** (float) - 正态分布的平均值 - **loc** (float) - 正态分布的平均值
- **scale** (float) - 正态分布的标准差 - **scale** (float) - 正态分布的标准差
- **seed** (int) - 随机种子 - **seed** (int) - 随机种子
**代码示例** **代码示例**
......
...@@ -5,7 +5,7 @@ logsigmoid ...@@ -5,7 +5,7 @@ logsigmoid
.. py:function:: paddle.fluid.layers.logsigmoid(x, name=None) .. py:function:: paddle.fluid.layers.logsigmoid(x, name=None)
Logsigmoid激活函数 Logsigmoid激活函数
.. math:: .. math::
...@@ -14,10 +14,12 @@ Logsigmoid激活函数。 ...@@ -14,10 +14,12 @@ Logsigmoid激活函数。
参数: 参数:
- **x** - LogSigmoid算子的输入 - **x** (Variable)- 张量(Tensor)
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **name** (str|None) - 该层名称(可选),若设为None,则自动为该层命名。
返回: LogSigmoid算子的输出 返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**: **代码示例**:
......
...@@ -5,16 +5,18 @@ softplus ...@@ -5,16 +5,18 @@ softplus
.. py:function:: paddle.fluid.layers.softplus(x,name=None) .. py:function:: paddle.fluid.layers.softplus(x,name=None)
softplus激活函数 softplus激活函数
.. math:: .. math::
out = \ln(1 + e^{x}) out = \ln(1 + e^{x})
参数: 参数:
- **x** - Softplus操作符的输入 - **x** (Variable) - 张量(Tensor)
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回:Softplus操作后的结果 返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**: **代码示例**:
......
...@@ -3,22 +3,24 @@ ...@@ -3,22 +3,24 @@
softshrink softshrink
------------------------------- -------------------------------
.. py:function:: paddle.fluid.layers.softshrink(x, name=None) .. py:function:: paddle.fluid.layers.softshrink(x, alpha=None)
Softshrink激活算子 Softshrink激活函数
.. math:: .. math::
out = \begin{cases} out = \begin{cases}
x - \lambda, \text{if } x > \lambda \\ x - \alpha, \text{if } x > \alpha \\
x + \lambda, \text{if } x < -\lambda \\ x + \alpha, \text{if } x < -\alpha \\
0, \text{otherwise} 0, \text{otherwise}
\end{cases} \end{cases}
参数: 参数:
- **x** - Softshrink算子的输入 - **x** (Variable0 - 张量(Tensor)
- **lambda** (FLOAT)- 非负偏移量。 - **alpha** (float) - 上面公式中alpha的值
返回: Softshrink算子的输出 返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**: **代码示例**:
......
...@@ -6,17 +6,18 @@ softsign ...@@ -6,17 +6,18 @@ softsign
.. py:function:: paddle.fluid.layers.softsign(x,name=None) .. py:function:: paddle.fluid.layers.softsign(x,name=None)
softsign激活函数 softsign激活函数
.. math:: .. math::
out = \frac{x}{1 + |x|} out = \frac{x}{1 + |x|}
参数: 参数:
- **x** : Softsign操作符的输入 - **x** (Variable) - 张量(Tensor)
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回: 张量(Tensor)
返回:Softsign操作后的结果 返回类型: 变量(Variable)
**代码示例**: **代码示例**:
......
...@@ -6,9 +6,7 @@ tanh ...@@ -6,9 +6,7 @@ tanh
.. py:function:: paddle.fluid.layers.tanh(x, name=None) .. py:function:: paddle.fluid.layers.tanh(x, name=None)
tanh 激活函数
tanh 激活函数。
.. math:: .. math::
out = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} out = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}}
...@@ -17,9 +15,11 @@ tanh 激活函数。 ...@@ -17,9 +15,11 @@ tanh 激活函数。
参数: 参数:
- **x** - Tanh算子的输入 - **x** - Tanh算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回: 张量(Tensor)
返回: Tanh算子的输出。 返回类型: 变量(Variable)
**代码示例**: **代码示例**:
......
...@@ -5,7 +5,7 @@ tanh_shrink ...@@ -5,7 +5,7 @@ tanh_shrink
.. py:function:: paddle.fluid.layers.tanh_shrink(x, name=None) .. py:function:: paddle.fluid.layers.tanh_shrink(x, name=None)
tanh_shrink激活函数 tanh_shrink激活函数
.. math:: .. math::
out = x - \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}} out = x - \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}}
...@@ -13,9 +13,11 @@ tanh_shrink激活函数。 ...@@ -13,9 +13,11 @@ tanh_shrink激活函数。
参数: 参数:
- **x** - TanhShrink算子的输入 - **x** - TanhShrink算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回: tanh_shrink算子的输出 返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**: **代码示例**:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册