提交 ff287ab1 编写于 作者: Z zhupengyang 提交者: hong19860320

fix soft_relu formula (#1715)

上级 24e41915
......@@ -7,7 +7,7 @@ soft_relu
SoftReLU 激活函数.
.. math:: out=ln(1+exp(max(min(x,threshold),threshold)))
.. math:: out=ln(1+exp(max(min(x,threshold),-threshold)))
参数:
- **x** (Variable) - SoftReLU激活函数的输入,为数据类型为float32,float64的多维Tensor或者LoDTensor。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册