提交 3f77f608 编写于 作者: F FDInSky 提交者: lvmengsi

update cn doc of "logsigmoid, softsign, softplus, softshrink, tanh,...

update cn doc of "logsigmoid, softsign, softplus, softshrink, tanh, tanh_shrink, NormalInitializer, TruncatedNormalInitializer, UniformInitializer" (#1265)

* test=develop update cn fluid doc

* test=develop update cn doc
上级 f5f8616a
......@@ -5,20 +5,20 @@ NormalInitializer
.. py:class:: paddle.fluid.initializer.NormalInitializer(loc=0.0, scale=1.0, seed=0)
随机正态(高斯)分布初始化器
随机正态(高斯)分布初始化函数
参数:
- **loc** (float) - 正态分布的平均值
- **scale** (float) - 正态分布的标准差
- **seed** (int) - 随机种子
- **loc** (float) - 正态分布的平均值
- **scale** (float) - 正态分布的标准差
- **seed** (int) - 随机种子
**代码示例**
.. code-block:: python
import paddle.fluid as fluid
x = fluid.layers.data(name="data", shape=[32, 32], dtype="float32")
fc = fluid.layers.fc(input=x, size=10,
param_attr=fluid.initializer.Normal(loc=0.0, scale=2.0))
import paddle.fluid as fluid
x = fluid.layers.data(name="data", shape=[32, 32], dtype="float32")
fc = fluid.layers.fc(input=x, size=10,
param_attr=fluid.initializer.Normal(loc=0.0, scale=2.0))
......@@ -5,12 +5,12 @@ TruncatedNormalInitializer
.. py:class:: paddle.fluid.initializer.TruncatedNormalInitializer(loc=0.0, scale=1.0, seed=0)
Random Truncated Normal(高斯)分布初始化器
Random Truncated Normal(高斯)分布初始化函数
参数:
- **loc** (float) - 正态分布的平均值
- **scale** (float) - 正态分布的标准差
- **seed** (int) - 随机种子
- **loc** (float) - 正态分布的平均值
- **scale** (float) - 正态分布的标准差
- **seed** (int) - 随机种子
**代码示例**
......
......@@ -8,9 +8,9 @@ UniformInitializer
随机均匀分布初始化器
参数:
- **low** (float) - 下界
- **high** (float) - 上界
- **seed** (int) - 随机种子
- **low** (float) - 下界
- **high** (float) - 上界
- **seed** (int) - 随机种子
**代码示例**
......
......@@ -5,7 +5,7 @@ logsigmoid
.. py:function:: paddle.fluid.layers.logsigmoid(x, name=None)
Logsigmoid激活函数
Logsigmoid激活函数
.. math::
......@@ -14,18 +14,20 @@ Logsigmoid激活函数。
参数:
- **x** - LogSigmoid算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
- **x** (Variable)- 张量(Tensor)
- **name** (str|None) - 该层名称(可选),若设为None,则自动为该层命名。
返回: LogSigmoid算子的输出
返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**:
.. code-block:: python
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.logsigmoid(data)
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.logsigmoid(data)
......
......@@ -5,24 +5,26 @@ softplus
.. py:function:: paddle.fluid.layers.softplus(x,name=None)
softplus激活函数
softplus激活函数
.. math::
out = \ln(1 + e^{x})
参数:
- **x** - Softplus操作符的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
- **x** (Variable) - 张量(Tensor)
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回:Softplus操作后的结果
返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**:
.. code-block:: python
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.softplus(data)
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.softplus(data)
......
......@@ -3,30 +3,32 @@
softshrink
-------------------------------
.. py:function:: paddle.fluid.layers.softshrink(x, name=None)
.. py:function:: paddle.fluid.layers.softshrink(x, alpha=None)
Softshrink激活算子
Softshrink激活函数
.. math::
out = \begin{cases}
x - \lambda, \text{if } x > \lambda \\
x + \lambda, \text{if } x < -\lambda \\
0, \text{otherwise}
\end{cases}
out = \begin{cases}
x - \alpha, \text{if } x > \alpha \\
x + \alpha, \text{if } x < -\alpha \\
0, \text{otherwise}
\end{cases}
参数:
- **x** - Softshrink算子的输入
- **lambda** (FLOAT)- 非负偏移量。
- **x** (Variable0 - 张量(Tensor)
- **alpha** (float) - 上面公式中alpha的值
返回: Softshrink算子的输出
返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**:
.. code-block:: python
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.softshrink(data)
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.softshrink(data)
......
......@@ -6,25 +6,26 @@ softsign
.. py:function:: paddle.fluid.layers.softsign(x,name=None)
softsign激活函数
softsign激活函数
.. math::
out = \frac{x}{1 + |x|}
参数:
- **x** : Softsign操作符的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
- **x** (Variable) - 张量(Tensor)
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回: 张量(Tensor)
返回:Softsign操作后的结果
返回类型: 变量(Variable)
**代码示例**:
.. code-block:: python
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.softsign(data)
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.softsign(data)
......
......@@ -6,9 +6,7 @@ tanh
.. py:function:: paddle.fluid.layers.tanh(x, name=None)
tanh 激活函数。
tanh 激活函数
.. math::
out = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}}
......@@ -17,17 +15,19 @@ tanh 激活函数。
参数:
- **x** - Tanh算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回: 张量(Tensor)
返回: Tanh算子的输出。
返回类型: 变量(Variable)
**代码示例**:
.. code-block:: python
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.tanh(data)
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.tanh(data)
......
......@@ -5,7 +5,7 @@ tanh_shrink
.. py:function:: paddle.fluid.layers.tanh_shrink(x, name=None)
tanh_shrink激活函数
tanh_shrink激活函数
.. math::
out = x - \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}}
......@@ -13,17 +13,19 @@ tanh_shrink激活函数。
参数:
- **x** - TanhShrink算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
返回: tanh_shrink算子的输出
返回: 张量(Tensor)
返回类型: 变量(Variable)
**代码示例**:
.. code-block:: python
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.tanh_shrink(data)
import paddle.fluid as fluid
data = fluid.layers.data(name="input", shape=[32, 784])
result = fluid.layers.tanh_shrink(data)
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册