elu_cn.rst 1.1 KB
Newer Older
H
Hao Wang 已提交
1 2 3 4 5 6 7 8 9
.. _cn_api_fluid_layers_elu:

elu
-------------------------------

.. py:function:: paddle.fluid.layers.elu(x, alpha=1.0, name=None)

ELU激活层(ELU Activation Operator)

G
GaoWei8 已提交
10
根据 https://arxiv.org/abs/1511.07289 对输入Tensor中每个元素应用以下计算。
H
Hao Wang 已提交
11 12

.. math::
Z
zq19 已提交
13
        \\out=max(0,x)+min(0,α∗(e^{x}−1))\\
H
Hao Wang 已提交
14 15

参数:
G
GaoWei8 已提交
16 17 18
 - **x** (Variable) - 该OP的输入为多维Tensor。数据类型为float32或float64。
 - **alpha** (float, 可选) - ELU的alpha值,默认值为1.0。
 - **name** (str, 可选) - 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name`,默认值为None。
H
Hao Wang 已提交
19

G
GaoWei8 已提交
20
返回: 输出为Tensor,与 ``x`` 维度相同、数据类型相同。
H
Hao Wang 已提交
21

G
GaoWei8 已提交
22
返回类型: Variable
H
Hao Wang 已提交
23 24 25 26 27 28

**代码示例**

.. code-block:: python

    import paddle.fluid as fluid
G
GaoWei8 已提交
29 30 31 32 33 34 35 36 37
    import numpy as np

    input_elu = np.array([[-1,6],[1,15.6]])
    with fluid.dygraph.guard():
        x = fluid.dygraph.to_variable(input_elu)
        y = fluid.layers.elu(x, alpha=0.2)
        print(y.numpy())
        # [[-0.12642411  6.        ]
        # [ 1.          15.6       ]]