未验证 提交 272a6bcc 编写于 作者: C Cheerego 提交者: GitHub

syn_cn_en_apidoc (#856)

上级 91d67623
此差异已折叠。
...@@ -2882,8 +2882,8 @@ dropout op可以从Program中删除,提高执行效率。 ...@@ -2882,8 +2882,8 @@ dropout op可以从Program中删除,提高执行效率。
1. downgrade_in_infer(default), 在预测时减小输出结果 1. downgrade_in_infer(default), 在预测时减小输出结果
- train: out = input * mask - train: out = input * mask
- inference: out = input * (1.0 - dropout_prob) - inference: out = input * (1.0 - dropout_prob)
(mask是一个张量,维度和输入维度相同,值为0或1,值为0的比例即为 ``dropout_prob`` ) (mask是一个张量,维度和输入维度相同,值为0或1,值为0的比例即为 ``dropout_prob`` )
...@@ -3179,9 +3179,9 @@ LSTMP层(具有循环映射的LSTM)在LSTM层后有一个分离的映射层, ...@@ -3179,9 +3179,9 @@ LSTMP层(具有循环映射的LSTM)在LSTM层后有一个分离的映射层,
- **proj_activation** (str) - 投影输出的激活函数。Choices = [“sigmoid”,“tanh”,“relu”,“identity”],默认“tanh”。 - **proj_activation** (str) - 投影输出的激活函数。Choices = [“sigmoid”,“tanh”,“relu”,“identity”],默认“tanh”。
- **dtype** (str) - 数据类型。Choices = [“float32”,“float64”],默认“float32”。 - **dtype** (str) - 数据类型。Choices = [“float32”,“float64”],默认“float32”。
- **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。 - **name** (str|None) - 该层名称(可选)。若设为None,则自动为该层命名。
- **h_0** (Variable) - 初始隐藏状态是可选输入,默认为0。这是一个具有形状的张量(N x D),其中N是批大小,D是投影大小。 - **h_0** (Variable) - 初始隐藏状态是可选输入,默认为0。这是一个具有形状的张量(N x D),其中N是批大小,D是投影大小。
- **c_0** (Variable) - 初始cell状态是可选输入,默认为0。这是一个具有形状(N x D)的张量,其中N是批大小。h_0和c_0可以为空,但只能同时为空。 - **c_0** (Variable) - 初始cell状态是可选输入,默认为0。这是一个具有形状(N x D)的张量,其中N是批大小。h_0和c_0可以为空,但只能同时为空。
- **cell_clip** (float) - 如果提供该参数,则在单元输出激活之前,单元状态将被此值剪裁。 - **cell_clip** (float) - 如果提供该参数,则在单元输出激活之前,单元状态将被此值剪裁。
- **proj_clip** (float) - 如果 num_proj > 0 并且 proj_clip 被提供,那么将投影值沿元素方向剪切到[-proj_clip,proj_clip]内 - **proj_clip** (float) - 如果 num_proj > 0 并且 proj_clip 被提供,那么将投影值沿元素方向剪切到[-proj_clip,proj_clip]内
返回:含有两个输出变量的元组,隐藏状态(hidden state)的投影和LSTMP的cell状态。投影的shape为(T*P),cell state的shape为(T*D),两者的LoD和输入相同。 返回:含有两个输出变量的元组,隐藏状态(hidden state)的投影和LSTMP的cell状态。投影的shape为(T*P),cell state的shape为(T*D),两者的LoD和输入相同。
...@@ -3827,12 +3827,12 @@ fc ...@@ -3827,12 +3827,12 @@ fc
data_1.data = [[[0.1, 0.2], data_1.data = [[[0.1, 0.2],
[0.3, 0.4]]] [0.3, 0.4]]]
data_1.shape = (1, 2, 2) # 1 is batch_size data_1.shape = (1, 2, 2) # 1 is batch_size
data_2 = [[[0.1, 0.2, 0.3]]] data_2 = [[[0.1, 0.2, 0.3]]]
data_2.shape = (1, 1, 3) data_2.shape = (1, 1, 3)
out = fluid.layers.fc(input=[data_1, data_2], size=2) out = fluid.layers.fc(input=[data_1, data_2], size=2)
Then: Then:
out.data = [[0.18669507, 0.1893476]] out.data = [[0.18669507, 0.1893476]]
out.shape = (1, 2) out.shape = (1, 2)
...@@ -8597,7 +8597,7 @@ shape层。 ...@@ -8597,7 +8597,7 @@ shape层。
返回: (Tensor),输入变量的形状 返回: (Tensor),输入变量的形状
返回类型: Variable 返回类型: Variable
**代码示例:** **代码示例:**
.. code-block:: python .. code-block:: python
...@@ -9012,7 +9012,7 @@ softmax操作符计算k维向量输入中所有其他维的指数和指数值的 ...@@ -9012,7 +9012,7 @@ softmax操作符计算k维向量输入中所有其他维的指数和指数值的
fc = fluid.layers.fc(input=x, size=10) fc = fluid.layers.fc(input=x, size=10)
# 在第二维执行softmax # 在第二维执行softmax
softmax = fluid.layers.softmax(input=fc, axis=1) softmax = fluid.layers.softmax(input=fc, axis=1)
# 在最后一维执行softmax # 在最后一维执行softmax
softmax = fluid.layers.softmax(input=fc, axis=-1) softmax = fluid.layers.softmax(input=fc, axis=-1)
...@@ -9061,7 +9061,7 @@ softmax_with_cross_entropy ...@@ -9061,7 +9061,7 @@ softmax_with_cross_entropy
- **logits** (Variable) - 未标准化(unscaled)的log概率,一个形为 N X K 的二维张量。 N是batch大小,K是类别总数。 - **logits** (Variable) - 未标准化(unscaled)的log概率,一个形为 N X K 的二维张量。 N是batch大小,K是类别总数。
- **label** (Variable) - 2-D 张量,代表了正确标注(ground truth), 如果 ``soft_label`` 为 False,则该参数是一个形为 N X 1 的Tensor<int64> 。如果 ``soft_label`` 为 True,它是 Tensor<float/double> ,形为 N X K 。 - **label** (Variable) - 2-D 张量,代表了正确标注(ground truth), 如果 ``soft_label`` 为 False,则该参数是一个形为 N X 1 的Tensor<int64> 。如果 ``soft_label`` 为 True,它是 Tensor<float/double> ,形为 N X K 。
- **soft_label** (bool) - 是否将输入标签当作软标签。默认为False。 - **soft_label** (bool) - 是否将输入标签当作软标签。默认为False。
- **ignore_index** (int) - 指明要无视的目标值,使之不对输入梯度有贡献。仅在 ``soft_label`` 为False时有效,默认为kIgnoreIndex。 - **ignore_index** (int) - 指明要无视的目标值,使之不对输入梯度有贡献。仅在 ``soft_label`` 为False时有效,默认为kIgnoreIndex。
- **numeric_stable_mode** (bool) – 标志位,指明是否使用一个具有更佳数学稳定性的算法。仅在 ``soft_label`` 为 False的GPU模式下生效. 若 ``soft_label`` 为 True 或者执行场所为CPU, 算法一直具有数学稳定性。 注意使用稳定算法时速度可能会变慢。默认为 True。 - **numeric_stable_mode** (bool) – 标志位,指明是否使用一个具有更佳数学稳定性的算法。仅在 ``soft_label`` 为 False的GPU模式下生效. 若 ``soft_label`` 为 True 或者执行场所为CPU, 算法一直具有数学稳定性。 注意使用稳定算法时速度可能会变慢。默认为 True。
- **return_softmax** (bool) – 标志位,指明是否额外返回一个softmax值, 同时返回交叉熵计算结果。默认为False。 - **return_softmax** (bool) – 标志位,指明是否额外返回一个softmax值, 同时返回交叉熵计算结果。默认为False。
...@@ -9387,7 +9387,7 @@ stack ...@@ -9387,7 +9387,7 @@ stack
[5.0, 6.0] ] ] [5.0, 6.0] ] ]
Out.dims = [1, 3, 2] Out.dims = [1, 3, 2]
参数: 参数:
- **x** (Variable|list(Variable)|tuple(Variable)) – 输入变量 - **x** (Variable|list(Variable)|tuple(Variable)) – 输入变量
- **axis** (int|None) – 对输入进行stack运算所在的轴 - **axis** (int|None) – 对输入进行stack运算所在的轴
...@@ -9909,9 +9909,9 @@ abs ...@@ -9909,9 +9909,9 @@ abs
参数: 参数:
- **x** - abs算子的输入 - **x** - abs算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: abs算子的输出。 返回: abs算子的输出。
...@@ -9931,8 +9931,8 @@ arccosine激活函数。 ...@@ -9931,8 +9931,8 @@ arccosine激活函数。
out = cos^{-1}(x) out = cos^{-1}(x)
参数: 参数:
- **x** - acos算子的输入 - **x** - acos算子的输入
返回: acos算子的输出。 返回: acos算子的输出。
...@@ -9950,8 +9950,8 @@ arcsine激活函数。 ...@@ -9950,8 +9950,8 @@ arcsine激活函数。
out = sin^{-1}(x) out = sin^{-1}(x)
参数: 参数:
- **x** - asin算子的输入 - **x** - asin算子的输入
返回: asin算子的输出。 返回: asin算子的输出。
...@@ -9968,8 +9968,8 @@ arctanh激活函数。 ...@@ -9968,8 +9968,8 @@ arctanh激活函数。
out = tanh^{-1}(x) out = tanh^{-1}(x)
参数: 参数:
- **x** - atan算子的输入 - **x** - atan算子的输入
返回: atan算子的输出。 返回: atan算子的输出。
...@@ -9993,7 +9993,7 @@ ceil ...@@ -9993,7 +9993,7 @@ ceil
参数: 参数:
- **x** - Ceil算子的输入 - **x** - Ceil算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: Ceil算子的输出。 返回: Ceil算子的输出。
...@@ -10024,7 +10024,7 @@ Cosine余弦激活函数。 ...@@ -10024,7 +10024,7 @@ Cosine余弦激活函数。
参数: 参数:
- **x** - cos算子的输入 - **x** - cos算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
...@@ -10085,7 +10085,7 @@ Exp激活函数(Exp指以自然常数e为底的指数运算)。 ...@@ -10085,7 +10085,7 @@ Exp激活函数(Exp指以自然常数e为底的指数运算)。
参数: 参数:
- **x** - Exp算子的输入 - **x** - Exp算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
...@@ -10116,7 +10116,7 @@ floor ...@@ -10116,7 +10116,7 @@ floor
参数: 参数:
- **x** - Floor算子的输入 - **x** - Floor算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
...@@ -10188,8 +10188,8 @@ Logsigmoid激活函数。 ...@@ -10188,8 +10188,8 @@ Logsigmoid激活函数。
参数: 参数:
- **x** - LogSigmoid算子的输入 - **x** - LogSigmoid算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: LogSigmoid算子的输出 返回: LogSigmoid算子的输出
...@@ -10217,8 +10217,8 @@ Reciprocal(取倒数)激活函数 ...@@ -10217,8 +10217,8 @@ Reciprocal(取倒数)激活函数
参数: 参数:
- **x** - reciprocal算子的输入 - **x** - reciprocal算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: Reciprocal算子的输出。 返回: Reciprocal算子的输出。
...@@ -10247,8 +10247,8 @@ Round取整激活函数。 ...@@ -10247,8 +10247,8 @@ Round取整激活函数。
参数: 参数:
- **x** - round算子的输入 - **x** - round算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: Round算子的输出。 返回: Round算子的输出。
...@@ -10276,7 +10276,7 @@ sigmoid激活函数 ...@@ -10276,7 +10276,7 @@ sigmoid激活函数
参数: 参数:
- **x** - Sigmoid算子的输入 - **x** - Sigmoid算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: Sigmoid运算输出. 返回: Sigmoid运算输出.
...@@ -10305,7 +10305,7 @@ sin ...@@ -10305,7 +10305,7 @@ sin
参数: 参数:
- **x** - sin算子的输入 - **x** - sin算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
...@@ -10423,7 +10423,7 @@ sqrt ...@@ -10423,7 +10423,7 @@ sqrt
参数: 参数:
- **x** - Sqrt算子的输入 - **x** - Sqrt算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: Sqrt算子的输出。 返回: Sqrt算子的输出。
...@@ -10482,7 +10482,7 @@ tanh 激活函数。 ...@@ -10482,7 +10482,7 @@ tanh 激活函数。
参数: 参数:
- **x** - Tanh算子的输入 - **x** - Tanh算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: Tanh算子的输出。 返回: Tanh算子的输出。
...@@ -10511,7 +10511,7 @@ tanh_shrink激活函数。 ...@@ -10511,7 +10511,7 @@ tanh_shrink激活函数。
参数: 参数:
- **x** - TanhShrink算子的输入 - **x** - TanhShrink算子的输入
- **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn - **use_cudnn** (BOOLEAN) – (bool,默认为false)是否仅用于cudnn核,需要安装cudnn
返回: tanh_shrink算子的输出 返回: tanh_shrink算子的输出
...@@ -11295,37 +11295,9 @@ zeros ...@@ -11295,37 +11295,9 @@ zeros
============ ==========================
learning_rate_scheduler learning_rate_scheduler
============ ==========================
.. _cn_api_fluid_layers_append_LARS:
append_LARS
-------------------------------
.. py:function:: paddle.fluid.layers.append_LARS(params_grads,learning_rate,weight_decay)
对每一层的学习率运用LARS(LAYER-WISE ADAPTIVE RATE SCALING)
参数:
- **learning_rate** -变量学习率。LARS的全局学习率。
- **weight_decay** -Python float类型数
返回: 衰减的学习率
**代码示例** :
.. code-block:: python
learning_rate*=local_gw_ratio * sqrt(sumsq(param))
/ (sqrt(sumsq(gradient))+ weight_decay * sqrt(sumsq(param)))
.. _cn_api_fluid_layers_cosine_decay: .. _cn_api_fluid_layers_cosine_decay:
...@@ -11354,7 +11326,7 @@ cosine_decay ...@@ -11354,7 +11326,7 @@ cosine_decay
.. code-block:: python .. code-block:: python
base_lr = 0.1 base_lr = 0.1
lr = fluid.layers.cosine_decay( learning_rate = base_lr, step_each_epoch=10000, epochs=120) lr = fluid.layers.cosine_decay( learning_rate = base_lr, step_each_epoch=10000, epochs=120)
...@@ -11922,7 +11894,7 @@ box decode过程得出decode_box,然后分配方案如下所述: ...@@ -11922,7 +11894,7 @@ box decode过程得出decode_box,然后分配方案如下所述:
scores = fluid.layers.data( scores = fluid.layers.data(
name='scores', shape=[20, 81], dtype='float32') name='scores', shape=[20, 81], dtype='float32')
decoded_box, output_assign_box = fluid.layers.box_decoder_and_assign( decoded_box, output_assign_box = fluid.layers.box_decoder_and_assign(
pb, pbv, loc, scores, 4.135) pb, pbv, loc, scores, 4.135)
.. _cn_api_fluid_layers_density_prior_box: .. _cn_api_fluid_layers_density_prior_box:
...@@ -12858,7 +12830,7 @@ yolo_box ...@@ -12858,7 +12830,7 @@ yolo_box
先前网络的输出形状为[N,C,H,W],而H和W应相同,用来指定网格大小。对每个网格点预测给定的数目的框,这个数目记为S,由anchor的数量指定。 在第二维(通道维度)中,C应该等于S *(5 + class_num),class_num是源数据集中对象类别数目(例如coco数据集中的80),此外第二个(通道)维度中还有4个框位置坐标x,y,w,h,以及anchor box的one-hot key的置信度得分。 先前网络的输出形状为[N,C,H,W],而H和W应相同,用来指定网格大小。对每个网格点预测给定的数目的框,这个数目记为S,由anchor的数量指定。 在第二维(通道维度)中,C应该等于S *(5 + class_num),class_num是源数据集中对象类别数目(例如coco数据集中的80),此外第二个(通道)维度中还有4个框位置坐标x,y,w,h,以及anchor box的one-hot key的置信度得分。
假设4个位置坐标是 :math:`t_x` ,:math:`t_y` ,:math:`t_w` , :math:`t_h` 假设4个位置坐标是 :math:`t_x` ,:math:`t_y` ,:math:`t_w` , :math:`t_h`
,则框的预测算法为: ,则框的预测算法为:
.. math:: .. math::
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册