Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
6e580889
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
6e580889
编写于
8月 18, 2020
作者:
L
LutaoChu
提交者:
GitHub
8月 18, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add normalize op docs, fix the typo of L1Loss op docs, test=develop (#2390)
上级
39db27b8
变更
4
隐藏空白更改
内联
并排
Showing
4 changed file
with
87 addition
and
27 deletion
+87
-27
doc/fluid/api_cn/nn_cn/functional_cn.rst
doc/fluid/api_cn/nn_cn/functional_cn.rst
+1
-0
doc/fluid/api_cn/nn_cn/functional_cn/l1_loss_cn.rst
doc/fluid/api_cn/nn_cn/functional_cn/l1_loss_cn.rst
+14
-14
doc/fluid/api_cn/nn_cn/functional_cn/normalize_cn.rst
doc/fluid/api_cn/nn_cn/functional_cn/normalize_cn.rst
+59
-0
doc/fluid/api_cn/nn_cn/loss_cn/L1Loss_cn.rst
doc/fluid/api_cn/nn_cn/loss_cn/L1Loss_cn.rst
+13
-13
未找到文件。
doc/fluid/api_cn/nn_cn/functional_cn.rst
浏览文件 @
6e580889
...
...
@@ -10,5 +10,6 @@ functional
functional_cn/l1_loss_cn.rst
functional_cn/nll_loss_cn.rst
functional_cn/normalize_cn.rst
functional_cn/margin_ranking_loss_cn.rst
functional_cn/mse_loss_cn.rst
doc/fluid/api_cn/nn_cn/functional_cn/l1_loss_cn.rst
浏览文件 @
6e580889
l1_loss
-------------------------------
.. py:function:: paddle.nn.functional.l1_loss(
x
, label, reduction='mean', name=None)
.. py:function:: paddle.nn.functional.l1_loss(
input
, label, reduction='mean', name=None)
该接口计算输入 ``
x
`` 和标签 ``label`` 间的 `L1 loss` 损失。
该接口计算输入 ``
input
`` 和标签 ``label`` 间的 `L1 loss` 损失。
该损失函数的数学计算公式如下:
当 `reduction` 设置为 ``'none'`` 时,
.. math::
Out = \lvert
x
- label\rvert
Out = \lvert
input
- label\rvert
当 `reduction` 设置为 ``'mean'`` 时,
.. math::
Out = MEAN(\lvert
x
- label\rvert)
Out = MEAN(\lvert
input
- label\rvert)
当 `reduction` 设置为 ``'sum'`` 时,
.. math::
Out = SUM(\lvert
x
- label\rvert)
Out = SUM(\lvert
input
- label\rvert)
参数
:::::::::
- **
x
** (Tensor): - 输入的Tensor,维度是[N, *], 其中N是batch size, `*` 是任意数量的额外维度。数据类型为:float32、float64、int32、int64。
- **label** (Tensor): - 标签,维度是[N, *], 与 ``
x
`` 相同。数据类型为:float32、float64、int32、int64。
- **
input
** (Tensor): - 输入的Tensor,维度是[N, *], 其中N是batch size, `*` 是任意数量的额外维度。数据类型为:float32、float64、int32、int64。
- **label** (Tensor): - 标签,维度是[N, *], 与 ``
input
`` 相同。数据类型为:float32、float64、int32、int64。
- **reduction** (str, 可选): - 指定应用于输出结果的计算方式,可选值有: ``'none'``, ``'mean'``, ``'sum'`` 。默认为 ``'mean'``,计算 `L1Loss` 的均值;设置为 ``'sum'`` 时,计算 `L1Loss` 的总和;设置为 ``'none'`` 时,则返回 `L1Loss`。
- **name** (str,可选): - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。
返回
:::::::::
``Tensor``, 输入 ``
x`` 和标签 ``label`` 间的 `L1 loss` 损失。如果 :attr:`reduction` 是 ``'none'``, 则输出Loss的维度为 [N, *], 与输入 ``x`` 相同。如果 :attr:
`reduction` 是 ``'mean'`` 或 ``'sum'``, 则输出Loss的维度为 [1]。
``Tensor``, 输入 ``
input`` 和标签 ``label`` 间的 `L1 loss` 损失。如果 `reduction` 是 ``'none'``, 则输出Loss的维度为 [N, *], 与输入 ``input`` 相同。如果
`reduction` 是 ``'mean'`` 或 ``'sum'``, 则输出Loss的维度为 [1]。
代码示例
...
...
@@ -40,24 +40,24 @@ l1_loss
.. code-block:: python
import paddle
import numpy as np
import paddle
paddle.disable_static()
x
_data = np.array([[1.5, 0.8], [0.2, 1.3]]).astype("float32")
input
_data = np.array([[1.5, 0.8], [0.2, 1.3]]).astype("float32")
label_data = np.array([[1.7, 1], [0.4, 0.5]]).astype("float32")
x = paddle.to_variable(x
_data)
input = paddle.to_variable(input
_data)
label = paddle.to_variable(label_data)
l1_loss = paddle.nn.functional.l1_loss(
x
, label)
l1_loss = paddle.nn.functional.l1_loss(
input
, label)
print(l1_loss.numpy())
# [0.35]
l1_loss = paddle.nn.functional.l1_loss(
x
, label, reduction='none')
l1_loss = paddle.nn.functional.l1_loss(
input
, label, reduction='none')
print(l1_loss.numpy())
# [[0.20000005 0.19999999]
# [0.2 0.79999995]]
l1_loss = paddle.nn.functional.l1_loss(
x
, label, reduction='sum')
l1_loss = paddle.nn.functional.l1_loss(
input
, label, reduction='sum')
print(l1_loss.numpy())
# [1.4]
doc/fluid/api_cn/nn_cn/functional_cn/normalize_cn.rst
0 → 100644
浏览文件 @
6e580889
normalize
-------------------------------
.. py:function:: paddle.nn.functional.normalize(x, p=2, axis=1, epsilon=1e-12, name=None)
该接口使用 :math:`L_p` 范数沿维度 ``axis`` 对 ``x`` 进行归一化。计算公式如下:
.. math::
y = \frac{x}{ \max\left( \lvert \lvert x \rvert \rvert_p, epsilon\right) }
.. math::
\lvert \lvert x \rvert \rvert_p = \left(\sum_i {\lvert x_i\rvert^p} \right)^{1/p}
其中 :math:`\sum_i{\lvert x_i\rvert^p}` 沿维度 ``axis`` 进行计算。
参数
:::::::::
- **x** (Tensor) - 输入可以是N-D Tensor。数据类型为:float32、float64。
- **p** (float|int, 可选) - 范数公式中的指数值。默认值:2
- **axis** (int, 可选)- 要进行归一化的轴。如果 ``x`` 是1-D Tensor,轴固定为0。如果 `axis < 0`,轴为 `x.ndim + axis`。-1表示最后一维。
- **epsilon** (float,可选) - 添加到分母上的值以防止分母除0。默认值为1e-12。
- **name** (str,可选) - 操作的名称(可选,默认值为None)。更多信息请参见 :ref:`api_guide_Name`。
返回
:::::::::
``Tensor``, 输出的形状和数据类型和 ``x`` 相同。
抛出异常:
:::::::::
- ``TypeError`` - 当参数 ``p`` 或者 ``axis`` 的类型不符合要求时。或者当参数 ``x`` 的类型或数据类型不符合要求时。
代码示例
:::::::::
.. code-block:: python
import numpy as np
import paddle
import paddle.nn.functional as F
paddle.disable_static()
x = np.arange(6, dtype=np.float32).reshape(2,3)
x = paddle.to_variable(x)
y = F.normalize(x)
print(y.numpy())
# [[0. 0.4472136 0.8944272 ]
# [0.42426404 0.5656854 0.7071067 ]]
y = F.normalize(x, p=1.5)
print(y.numpy())
# [[0. 0.40862012 0.81724024]
# [0.35684016 0.4757869 0.5947336 ]]
y = F.normalize(x, axis=0)
print(y.numpy())
# [[0. 0.24253564 0.37139067]
# [1. 0.97014254 0.9284767 ]]
doc/fluid/api_cn/nn_cn/loss_cn/L1Loss_cn.rst
浏览文件 @
6e580889
...
...
@@ -3,24 +3,24 @@ L1Loss
.. py:class:: paddle.nn.loss.L1Loss(reduction='mean', name=None)
该接口用于创建一个L1Loss的可调用类,L1Loss计算输入
x
和标签label间的 `L1 loss` 损失。
该接口用于创建一个L1Loss的可调用类,L1Loss计算输入
input
和标签label间的 `L1 loss` 损失。
该损失函数的数学计算公式如下:
当 `reduction` 设置为 ``'none'`` 时,
.. math::
Out = \lvert
x
- label\rvert
Out = \lvert
input
- label\rvert
当 `reduction` 设置为 ``'mean'`` 时,
.. math::
Out = MEAN(\lvert
x
- label\rvert)
Out = MEAN(\lvert
input
- label\rvert)
当 `reduction` 设置为 ``'sum'`` 时,
.. math::
Out = SUM(\lvert
x
- label\rvert)
Out = SUM(\lvert
input
- label\rvert)
参数
...
...
@@ -30,36 +30,36 @@ L1Loss
形状
:::::::::
- **
x
** (Tensor): - 输入的Tensor,维度是[N, *], 其中N是batch size, `*` 是任意数量的额外维度。数据类型为:float32、float64、int32、int64。
- **label** (Tensor): - 标签,维度是[N, *], 与 ``
x
`` 相同。数据类型为:float32、float64、int32、int64。
- **output** (Tensor): - 输入 ``
x`` 和标签 ``label`` 间的 `L1 loss` 损失。如果 :attr:`reduction` 是 ``'none'``, 则输出Loss的维度为 [N, *], 与输入 ``x`` 相同。如果 :attr:
`reduction` 是 ``'mean'`` 或 ``'sum'``, 则输出Loss的维度为 [1]。
- **
input
** (Tensor): - 输入的Tensor,维度是[N, *], 其中N是batch size, `*` 是任意数量的额外维度。数据类型为:float32、float64、int32、int64。
- **label** (Tensor): - 标签,维度是[N, *], 与 ``
input
`` 相同。数据类型为:float32、float64、int32、int64。
- **output** (Tensor): - 输入 ``
input`` 和标签 ``label`` 间的 `L1 loss` 损失。如果 `reduction` 是 ``'none'``, 则输出Loss的维度为 [N, *], 与输入 ``input`` 相同。如果
`reduction` 是 ``'mean'`` 或 ``'sum'``, 则输出Loss的维度为 [1]。
代码示例
:::::::::
.. code-block:: python
import paddle
import numpy as np
import paddle
paddle.disable_static()
x
_data = np.array([[1.5, 0.8], [0.2, 1.3]]).astype("float32")
input
_data = np.array([[1.5, 0.8], [0.2, 1.3]]).astype("float32")
label_data = np.array([[1.7, 1], [0.4, 0.5]]).astype("float32")
x = paddle.to_variable(x
_data)
input = paddle.to_variable(input
_data)
label = paddle.to_variable(label_data)
l1_loss = paddle.nn.loss.L1Loss()
output = l1_loss(
x
, label)
output = l1_loss(
input
, label)
print(output.numpy())
# [0.35]
l1_loss = paddle.nn.loss.L1Loss(reduction='sum')
output = l1_loss(
x
, label)
output = l1_loss(
input
, label)
print(output.numpy())
# [1.4]
l1_loss = paddle.nn.loss.L1Loss(reduction='none')
output = l1_loss(
x
, label)
output = l1_loss(
input
, label)
print(output.numpy())
# [[0.20000005 0.19999999]
# [0.2 0.79999995]]
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录