.. _cn_api_fluid_layers_elu: elu ------------------------------- .. py:function:: paddle.fluid.layers.elu(x, alpha=1.0, name=None) :alias_main: paddle.nn.functional.elu :alias: paddle.nn.functional.elu,paddle.nn.functional.activation.elu :old_api: paddle.fluid.layers.elu ELU激活层(ELU Activation Operator) 根据 https://arxiv.org/abs/1511.07289 对输入Tensor中每个元素应用以下计算。 .. math:: \\out=max(0,x)+min(0,α∗(e^{x}−1))\\ 参数: - **x** (Variable) - 该OP的输入为多维Tensor。数据类型为float32或float64。 - **alpha** (float, 可选) - ELU的alpha值,默认值为1.0。 - **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为None。 返回: 输出为Tensor,与 ``x`` 维度相同、数据类型相同。 返回类型: Variable **代码示例** .. code-block:: python import paddle.fluid as fluid import numpy as np input_elu = np.array([[-1,6],[1,15.6]]) with fluid.dygraph.guard(): x = fluid.dygraph.to_variable(input_elu) y = fluid.layers.elu(x, alpha=0.2) print(y.numpy()) # [[-0.12642411 6. ] # [ 1. 15.6 ]]