diff --git a/doc/fluid/api_cn/layers_cn/adaptive_pool2d_cn.rst b/doc/fluid/api_cn/layers_cn/adaptive_pool2d_cn.rst index e690b33b784fe4e298510dcf281baecc946ddb2e..8f4c38c6954fe90d614c1b72a3f04fef61a51f93 100644 --- a/doc/fluid/api_cn/layers_cn/adaptive_pool2d_cn.rst +++ b/doc/fluid/api_cn/layers_cn/adaptive_pool2d_cn.rst @@ -29,7 +29,7 @@ adaptive_pool2d - **pool_size** (int|list|tuple) - 池化核大小。 如果池化核大小是元组或列表,则它必须包含两个整数(pool_size_Height,pool_size_Width。若为一个整数,则表示H和W维度上均为该值。 - **pool_type** (string)- 池化类型,可输入“max”代表max-pooling,或者“avg”代表average-pooling。 - **require_index** (bool) - 如果为False,则输出中带有最大池化点所在的索引。 如果pool_type为avg,该项不可被设置为True, 默认False。 - - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 返回: Variable(Tensor) 自适应池化结果张量 @@ -60,8 +60,7 @@ adaptive_pool2d # output[:, :, i, j] = avg(input[:, :, hstart: hend, wstart: wend]) # import paddle.fluid as fluid - data = fluid.layers.data( - name='data', shape=[3, 32, 32], dtype='float32') + data = fluid.data(name='data', shape=[None, 3, 32, 32], dtype='float32') pool_out = fluid.layers.adaptive_pool2d( input=data, pool_size=[3, 3], @@ -82,8 +81,7 @@ adaptive_pool2d # output[:, :, i, j] = max(input[:, :, hstart: hend, wstart: wend]) # import paddle.fluid as fluid - data = fluid.layers.data( - name='data', shape=[3, 32, 32], dtype='float32') + data = fluid.data(name='data', shape=[None, 3, 32, 32], dtype='float32') pool_out = fluid.layers.adaptive_pool2d( input=data, pool_size=[3, 3], diff --git a/doc/fluid/api_cn/layers_cn/adaptive_pool3d_cn.rst b/doc/fluid/api_cn/layers_cn/adaptive_pool3d_cn.rst index 83b1ffa7d693b6cc7dd59dbdbaed9b8922d2357f..2b166e0449022c815454d28f4395733090dd9d0e 100644 --- a/doc/fluid/api_cn/layers_cn/adaptive_pool3d_cn.rst +++ b/doc/fluid/api_cn/layers_cn/adaptive_pool3d_cn.rst @@ -34,8 +34,8 @@ adaptive_pool3d - **input** (Variable) - 池化操作的输入张量,维度为 :math:`[N, C, D, H, W]` 的5-D Tensor。 输入张量的格式为NCDHW,其中N是batch大小,C是通道数,D为特征的深度,H是特征的高度,W是特征的宽度,数据类型为float32或float64。 - **pool_size** (int|list|tuple) - 池化核大小。 如果池化核大小是元组或列表,则它必须包含三个整数(Depth, Height, Width)。若为一个整数,则表示D, H和W维度上均为该值。 - **pool_type** (string)- 池化类型,可输入“max”代表max-pooling,或者“avg”代表average-pooling。 - - **require_index** (bool, 默认False) - 如果为True,则输出中带有最大池化点所在的索引。 如果pool_type为avg,该项不可被设置为True。 - - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 + - **require_index** (bool) - 如果为True,则输出中带有最大池化点所在的索引。 如果pool_type为avg,该项不可被设置为True, 默认False。 + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 返回: Variable(Tensor) 自适应池化结果张量 @@ -72,8 +72,7 @@ adaptive_pool3d import paddle.fluid as fluid - data = fluid.layers.data( - name='data', shape=[3, 32, 32, 32], dtype='float32') + data = fluid.data(name='data', shape=[None, 3, 32, 32, 32], dtype='float32') pool_out = fluid.layers.adaptive_pool3d( input=data, pool_size=[3, 3, 3], @@ -100,8 +99,7 @@ adaptive_pool3d import paddle.fluid as fluid - data = fluid.layers.data( - name='data', shape=[3, 32, 32, 32], dtype='float32') + data = fluid.data(name='data', shape=[None, 3, 32, 32, 32], dtype='float32') pool_out = fluid.layers.adaptive_pool3d( input=data, pool_size=[3, 3, 3], diff --git a/doc/fluid/api_cn/layers_cn/grid_sampler_cn.rst b/doc/fluid/api_cn/layers_cn/grid_sampler_cn.rst index f4c81ca8e0c2810a1747a649a386663f9bf385d4..8a3a8d8d33515c13a7f287908f36586289cb346f 100644 --- a/doc/fluid/api_cn/layers_cn/grid_sampler_cn.rst +++ b/doc/fluid/api_cn/layers_cn/grid_sampler_cn.rst @@ -52,7 +52,7 @@ step 2: 参数: - **x** (Variable): 输入张量,维度为 :math:`[N, C, H, W]` 的4-D Tensor,N为批尺寸,C是通道数,H是特征高度,W是特征宽度, 数据类型为float32或float64。 - **grid** (Variable): 输入网格数据张量,维度为 :math:`[N, H, W, 2]` 的4-D Tensor,N为批尺寸,C是通道数,H是特征高度,W是特征宽度, 数据类型为float32或float64。 - - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 返回: Variable(Tensor): 输入X基于输入网格的双线性插值计算结果,维度为 :math:`[N, C, H, W]` 的4-D Tensor @@ -63,7 +63,7 @@ step 2: .. code-block:: python # 一般与 affine_grid 组合使用 - x = fluid.layers.data(name='x', shape=[10, 32, 32], dtype='float32') + x = fluid.data(name='x', shape=[None, 10, 32, 32], dtype='float32') theta = fluid.layers.data(name='theta', shape=[2, 3], dtype='float32') grid = fluid.layers.affine_grid(theta=theta, out_shape=[3, 10, 32, 32]) out = fluid.layers.grid_sampler(x=x, grid=grid) diff --git a/doc/fluid/api_cn/layers_cn/kldiv_loss_cn.rst b/doc/fluid/api_cn/layers_cn/kldiv_loss_cn.rst index 932c5efe16c03e760371e3dbc95de118da5857e2..896661cfcf32feab2174be01df5080bd8c4c806c 100644 --- a/doc/fluid/api_cn/layers_cn/kldiv_loss_cn.rst +++ b/doc/fluid/api_cn/layers_cn/kldiv_loss_cn.rst @@ -27,6 +27,7 @@ kL发散损失计算如下: - **x** (Variable) - KL散度损失算子的输入张量。维度为[N, \*]的多维Tensor,其中N是批大小,\*表示任何数量的附加维度,数据类型为float32或float64。 - **target** (Variable) - KL散度损失算子的张量。与输入 ``x`` 的维度和数据类型一致的多维Tensor。 - **reduction** (Variable)-要应用于输出的reduction类型,可用类型为‘none’ | ‘batchmean’ | ‘mean’ | ‘sum’,‘none’表示无reduction,‘batchmean’ 表示输出的总和除以批大小,‘mean’ 表示所有输出的平均值,‘sum’表示输出的总和。 + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 返回:Variable(Tensor) KL散度损失。 @@ -38,22 +39,22 @@ kL发散损失计算如下: .. code-block:: python # 'batchmean' reduction, loss shape 为[N] - x = fluid.layers.data(name='x', shape=[4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] + x = fluid.data(name='x', shape=[None,4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] target = fluid.layers.data(name='target', shape=[4,2,2], dtype='float32') loss = fluid.layers.kldiv_loss(x=x, target=target, reduction='batchmean') # shape=[-1] # 'mean' reduction, loss shape 为[1] - x = fluid.layers.data(name='x', shape=[4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] + x = fluid.data(name='x', shape=[None,4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] target = fluid.layers.data(name='target', shape=[4,2,2], dtype='float32') loss = fluid.layers.kldiv_loss(x=x, target=target, reduction='mean') # shape=[1] # 'sum' reduction, loss shape 为[1] - x = fluid.layers.data(name='x', shape=[4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] + x = fluid.data(name='x', shape=[None,4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] target = fluid.layers.data(name='target', shape=[4,2,2], dtype='float32') loss = fluid.layers.kldiv_loss(x=x, target=target, reduction='sum') # shape=[1] # 'none' reduction, loss shape 与X相同 - x = fluid.layers.data(name='x', shape=[4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] + x = fluid.data(name='x', shape=[None,4,2,2], dtype='float32') # shape=[-1, 4, 2, 2] target = fluid.layers.data(name='target', shape=[4,2,2], dtype='float32') loss = fluid.layers.kldiv_loss(x=x, target=target, reduction='none') # shape=[-1, 4, 2, 2] diff --git a/doc/fluid/api_cn/layers_cn/pool2d_cn.rst b/doc/fluid/api_cn/layers_cn/pool2d_cn.rst index f24bdedf2e89d3138e8c62cfb11bd0a6428b9bf6..af74397a256a93162f1fec898bdf51c7a9a579a8 100644 --- a/doc/fluid/api_cn/layers_cn/pool2d_cn.rst +++ b/doc/fluid/api_cn/layers_cn/pool2d_cn.rst @@ -108,11 +108,9 @@ pool2d .. code-block:: python import paddle.fluid as fluid - data_NCHW = fluid.layers.data( - name='data', shape=[2, 3, 8, 8], dtype='float32', append_batch_size=False) + data_NCHW = fluid.data(name='data', shape=[None, 3, 8, 8], dtype='float32') - data_NHWC = fluid.layers.data( - name='data', shape=[2, 8, 8, 3], dtype='float32', append_batch_size=False) + data_NHWC = fluid.data(name='data', shape=[None, 8, 8, 3], dtype='float32') # example 1: # ceil_mode = False diff --git a/doc/fluid/api_cn/layers_cn/pool3d_cn.rst b/doc/fluid/api_cn/layers_cn/pool3d_cn.rst index fbc8b8fd4e907100311564e344397240e420cb07..47e314896d920d28782a0ce0f5f1564dfcf3dce0 100644 --- a/doc/fluid/api_cn/layers_cn/pool3d_cn.rst +++ b/doc/fluid/api_cn/layers_cn/pool3d_cn.rst @@ -119,11 +119,9 @@ pool3d .. code-block:: python import paddle.fluid as fluid - data_NCDHW = fluid.layers.data( - name='data', shape=[2, 3, 8, 8, 8], dtype='float32', append_batch_size=False) + data_NCDHW = fluid.data(name='data', shape=[None, 3, 8, 8, 8], dtype='float32') - data_NDHWC = fluid.layers.data( - name='data', shape=[2, 8, 8, 8, 3], dtype='float32', append_batch_size=False) + data_NDHWC = fluid.data(name='data', shape=[None, 8, 8, 8, 3], dtype='float32') # example 1: # ceil_mode = False diff --git a/doc/fluid/api_cn/layers_cn/spectral_norm_cn.rst b/doc/fluid/api_cn/layers_cn/spectral_norm_cn.rst index a8349654f111fa11deaf032d22d03a92e7594aad..5c708790a286e3674110b364b16cfeb87c0f21c5 100644 --- a/doc/fluid/api_cn/layers_cn/spectral_norm_cn.rst +++ b/doc/fluid/api_cn/layers_cn/spectral_norm_cn.rst @@ -31,7 +31,7 @@ spectral_norm - **dim** (int) - 将输入(weight)重塑为矩阵之前应排列到第一个的维度索引,如果input(weight)是fc层的权重,则应设置为0;如果input(weight)是conv层的权重,则应设置为1,默认为0。 - **power_iters** (int) - 将用于计算spectral norm的功率迭代次数,默认值1 - **eps** (float) - epsilon用于保证计算规范中的数值稳定性,分母会加上 ``eps`` 防止除零,默认1e-12 - - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 返回:Variable(Tensor) 谱正则化后权重张量,维度与输入 ``weight`` 一致。 @@ -41,7 +41,7 @@ spectral_norm .. code-block:: python - weight = fluid.layers.data(name='weight', shape=[2, 8, 32, 32], append_batch_size=False, dtype='float32') + weight = fluid.data(name='weight', shape=[2, 8, 32, 32], dtype='float32') x = fluid.layers.spectral_norm(weight=weight, dim=1, power_iters=2) diff --git a/doc/fluid/api_cn/layers_cn/temporal_shift_cn.rst b/doc/fluid/api_cn/layers_cn/temporal_shift_cn.rst index c06188973f77db0298436b5c079b398f485d5949..278786d7a529ec89ee821d0720d2e4eb471aaa6d 100644 --- a/doc/fluid/api_cn/layers_cn/temporal_shift_cn.rst +++ b/doc/fluid/api_cn/layers_cn/temporal_shift_cn.rst @@ -32,7 +32,7 @@ temporal_shift - **x** (Variable) – 时移算符的输入张量。维度为 :math:`[N*T,C,H,W]` 的4-D Tensor。N为批量大小,T为时间段数,C为信道数,H为特征高度,W为特征宽度,数据类型为float32或float64。 - **seg_num** (int) – 时间段编号,这应该是一个正整数。 - **shift_ratio** (float) – 通道的移位比、通道的第一个 ``shift_ratio`` 部分沿时间维度移动-1,通道的第二个 ``shift_ratio`` 部分沿时间维度移动1,范围须在[0, 0.5]内。默认值0.25 - - **name** (None|str) – 该参数供开发人员打印调试信息时使用,具体用法请参见 :ref:`api_guide_Name` ,默认值为None。 + - **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置。默认值:None。 返回:Variable(Tensor) 时序位移后的输出张量,维度与输入 ``x`` 一致。 @@ -46,7 +46,7 @@ temporal_shift .. code-block:: python import paddle.fluid as fluid - input = fluid.layers.data(name='input', shape=[4,2,2], dtype='float32') + input = fluid.data(name='input', shape=[None,4,2,2], dtype='float32') out = fluid.layers.temporal_shift(x=input, seg_num=2, shift_ratio=0.2)