diff --git a/doc/fluid/api_cn/layers_cn/elu_cn.rst b/doc/fluid/api_cn/layers_cn/elu_cn.rst index 8fe2b3a80c5fea073519d29f623077910f076d93..906ec3ac9ac25e4de5dec26511995b348e64a61e 100644 --- a/doc/fluid/api_cn/layers_cn/elu_cn.rst +++ b/doc/fluid/api_cn/layers_cn/elu_cn.rst @@ -7,31 +7,31 @@ elu ELU激活层(ELU Activation Operator) -根据 https://arxiv.org/abs/1511.07289 对输入张量中每个元素应用以下计算。 +根据 https://arxiv.org/abs/1511.07289 对输入Tensor中每个元素应用以下计算。 .. math:: \\out=max(0,x)+min(0,α∗(e^{x}−1))\\ 参数: - - x(Variable)- ELU operator的输入 - - alpha(float|1.0)- ELU的alpha值 - - name (str|None) -这个层的名称(可选)。如果设置为None,该层将被自动命名。 + - **x** (Variable) - 该OP的输入为多维Tensor。数据类型为float32或float64。 + - **alpha** (float, 可选) - ELU的alpha值,默认值为1.0。 + - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name`,默认值为None。 -返回: ELU操作符的输出 +返回: 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 -返回类型: 输出(Variable) +返回类型: Variable **代码示例** .. code-block:: python import paddle.fluid as fluid - x = fluid.layers.data(name="x", shape=[3,10,32,32], dtype="float32") - y = fluid.layers.elu(x, alpha=0.2) - - - - - - - + import numpy as np + + input_elu = np.array([[-1,6],[1,15.6]]) + with fluid.dygraph.guard(): + x = fluid.dygraph.to_variable(input_elu) + y = fluid.layers.elu(x, alpha=0.2) + print(y.numpy()) + # [[-0.12642411 6. ] + # [ 1. 15.6 ]]