未验证 提交 8c47276a 编写于 作者: F Feiyu Chan 提交者: GitHub

gelu doc update (#1904)

* add update for gelu: approximation option
上级 c1cd6a69
...@@ -7,12 +7,19 @@ gelu ...@@ -7,12 +7,19 @@ gelu
逐元素计算 Gelu激活函数。更多细节请参考 `Gaussian Error Linear Units <https://arxiv.org/abs/1606.08415>`_ 。 逐元素计算 Gelu激活函数。更多细节请参考 `Gaussian Error Linear Units <https://arxiv.org/abs/1606.08415>`_ 。
如果使用近似计算:
.. math::
out = 0.5 * x * (1 + tanh(\sqrt{\frac{2}{\pi}} * (x + 0.044715x^{3})))
如果不使用近似计算:
.. math:: .. math::
out = 0.5 * x * (1 + erf(\frac{x}{\sqrt{2}})) out = 0.5 * x * (1 + erf(\frac{x}{\sqrt{2}}))
参数: 参数:
- **x** (Variable) - Gelu Op 的输入,多维 Tensor 或 LoDTensor,数据类型为 float32 或 float64。 - **x** (Variable) - Gelu Op 的输入,多维 Tensor 或 LoDTensor,数据类型为 float32 或 float64。
- **approximate** (bool, 可选) - 是否使用近似计算,默认值为 False。
返回: 返回:
- 多维 Tensor 或 LoDTensor, 数据类型为 float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。 - 多维 Tensor 或 LoDTensor, 数据类型为 float32 或 float64, 和输入 x 的数据类型相同,形状和输入 x 相同。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册