未验证 提交 d2143ab3 编写于 作者: H hong19860320 提交者: GitHub

Update the formula of SELU/selu (#2495)

上级 7664d021
......@@ -8,14 +8,18 @@ SELU激活层
.. math::
SELU(x) = scale * (max(0,x) + min(0, alpha * (e^{x} - 1)))
SELU(x)= scale *
\begin{cases}
x, \text{if } x > 0 \\
alpha * e^{x} - alpha, \text{if } x <= 0
\end{cases}
其中,:math:`x` 为输入的 Tensor
参数
::::::::::
- scale (float, 可选) - SELU激活计算公式中的scale值。默认值为1.0507009873554804934193349852946。
- alpha (float, 可选) - SELU激活计算公式中的alpha值。默认值为1.6732632423543772848170429916717。
- scale (float, 可选) - SELU激活计算公式中的scale值,必须大于1.0。默认值为1.0507009873554804934193349852946。
- alpha (float, 可选) - SELU激活计算公式中的alpha值,必须大于等于零。默认值为1.6732632423543772848170429916717。
- name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。
形状:
......
......@@ -9,15 +9,19 @@ selu激活层
.. math::
selu(x) = scale * (max(0,x) + min(0, alpha * (e^{x} - 1)))
selu(x)= scale *
\begin{cases}
x, \text{if } x > 0 \\
alpha * e^{x} - alpha, \text{if } x <= 0
\end{cases}
其中,:math:`x` 为输入的 Tensor
参数:
::::::::::
- x (Tensor) - 输入的 ``Tensor`` ,数据类型为:float32、float64。
- scale (float, 可选) - selu激活计算公式中的scale值。默认值为1.0507009873554804934193349852946。
- alpha (float, 可选) - selu激活计算公式中的alpha值。默认值为1.6732632423543772848170429916717。
- scale (float, 可选) - selu激活计算公式中的scale值,必须大于1.0。默认值为1.0507009873554804934193349852946。
- alpha (float, 可选) - selu激活计算公式中的alpha值,必须大于等于零。默认值为1.6732632423543772848170429916717。
- name (str, 可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。
返回
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册