提交 284f05a0 编写于 作者: Z zq19 提交者: xsrobin
上级 daaedac4
......@@ -38,7 +38,7 @@ ErrorClipByValue
prog_clip = prog.clone()
prog_clip.block(0).var(hidden1.name)._set_error_clip(
fluid.clip.ErrorClipByValue(
max=CLIP_MAX, min=CLIP_MIN)
max=CLIP_MAX, min=CLIP_MIN)
......
......@@ -8,7 +8,6 @@ Data Reader
.. toctree::
:maxdepth: 1
data_reader_cn/DataFeeder_cn.rst
data_reader_cn/Reader_cn.rst
......
......@@ -67,7 +67,7 @@ PyReader
break
2.如果iterable=True,则创建的Pyreader对象与程序分离。程序中不会插入任何算子。在本例中,创建的reader是一个python生成器,它是可迭代的。用户应将从Pyreader对象生成的数据输入 ``Executor.run(feed=...)`` 。
2.如果iterable=True,则创建的Pyreader对象与程序分离。程序中不会插入任何算子。在本例中,创建的reader是一个python生成器,它是可迭代的。用户应将从Pyreader对象生成的数据输入 ``Executor.run(feed=...)`` 。
.. code-block:: python
......@@ -209,7 +209,7 @@ PyReader
提供的 ``sample_generator`` 应该是一个python生成器,它生成的数据类型应为list(numpy.ndarray)。
当Pyreader对象可迭代时,必须设置 ``places`` 。
当Pyreader对象可迭代时,必须设置 ``places`` 。
如果所有的输入都没有LOD,这个方法比 ``decorate_sample_list_generator(paddle.batch(sample_generator, ...))`` 更快。
......
......@@ -44,7 +44,7 @@ conv2d
参数:
- **input** (Variable) - 格式为[N,C,H,W]格式的输入图像
- **num_filters** (int) - 滤波器数。和输出图像通道相同
- **filter_size** (int|tuple|None) - 滤波器大小。如果filter_size是一个元组,则必须包含两个整型数,(filter_size,filter_size_W)。否则,滤波器为square
- **filter_size** (int|tuple|None) - 滤波器大小。如果filter_size是一个元组,则必须包含两个整型数,(filter_size_H,filter_size_W)。否则,滤波器为square
- **stride** (int|tuple) - 步长(stride)大小。如果步长(stride)为元组,则必须包含两个整型数,(stride_H,stride_W)。否则,stride_H = stride_W = stride。默认:stride = 1
- **padding** (int|tuple) - 填充(padding)大小。如果填充(padding)为元组,则必须包含两个整型数,(padding_H,padding_W)。否则,padding_H = padding_W = padding。默认:padding = 0
- **dilation** (int|tuple) - 膨胀(dilation)大小。如果膨胀(dialation)为元组,则必须包含两个整型数,(dilation_H,dilation_W)。否则,dilation_H = dilation_W = dilation。默认:dilation = 1
......
......@@ -8,24 +8,33 @@ deformable_conv
可变形卷积层
在4-D输入上计算2-D可变形卷积。给定输入图像x,输出特征图y,可变形卷积操作如下所示:
\[y(p) = \sum_{k=1}^{K}{w_k * x(p + p_k + \Delta p_k) * \Delta m_k}\]
其中\(\Delta p_k\) 和 \(\Delta m_k\) 分别为第k个位置的可学习偏移和调制标量。
参考可变形卷积网络v2:可变形程度越高,结果越好。
:math:`y(p) = \sum_{k=1}^{K}{w_k * x(p + p_k + \Delta p_k) * \Delta m_k}`
其中 :math:`\Delta p_k 和 \Delta m_k` 分别为第k个位置的可学习偏移和调制标量。
参考可变形卷积网络v2: `可变形程度越高,结果越好 <https://arxiv.org/abs/1811.11168v2>`_。
**示例**
输入:
输入形状: \((N, C_{in}, H_{in}, W_{in})\)
卷积核形状: \((C_{out}, C_{in}, H_f, W_f)\)
偏移形状: \((N, 2 * deformable\_groups * H_f * H_w, H_{in}, W_{in})\)
掩膜形状: \((N, deformable\_groups * H_f * H_w, H_{in}, W_{in})\)
输入形状: :math:`(N, C_{in}, H_{in}, W_{in})`
卷积核形状: :math:`(C_{out}, C_{in}, H_f, W_f)`
偏移形状: :math:`(N, 2 * deformable\_groups * H_f * H_w, H_{in}, W_{in})`
掩膜形状: :math:`(N, deformable\_groups * H_f * H_w, H_{in}, W_{in})`
输出:
输出形状: \((N, C_{out}, H_{out}, W_{out})\)
输出形状: :math:`(N, C_{out}, H_{out}, W_{out})`
其中
\[\begin{split}H_{out}&= \frac{(H_{in} + 2 * paddings[0] - (dilations[0] * (H_f - 1) + 1))}{strides[0]} + 1 \\
W_{out}&= \frac{(W_{in} + 2 * paddings[1] - (dilations[1] * (W_f - 1) + 1))}{strides[1]} + 1\end{split}\]
.. math::
H_{out}&= \frac{(H_{in} + 2 * paddings[0] - (dilations[0] * (H_f - 1) + 1))}{strides[0]} + 1
W_{out}&= \frac{(W_{in} + 2 * paddings[1] - (dilations[1] * (W_f - 1) + 1))}{strides[1]} + 1
参数:
......@@ -40,7 +49,7 @@ deformable_conv
- **groups** (int) – 可变形卷积层的群组数。依据Alex Krizhevsky的Deep CNN论文中的分组卷积,有:当group=2时,前一半卷积核只和前一半输入通道有关,而后一半卷积核只和后一半输入通道有关。默认groups=1。
- **deformable_groups** (int) – 可变形群组分区数。默认deformable_groups = 1。
- **im2col_step** (int) – 每个im2col计算的最大图像数。总batch大小应该可以被该值整除或小于该值。如果您面临内存问题,可以尝试在此处使用一个更小的值。默认im2col_step = 64。
- **param_attr** (ParamAttr|None) – 可变形卷积的可学习参数/权重的参数属性。如果将其设置为None或ParamAttr的一个属性,可变形卷积将创建ParamAttr作为param_attr。如果没有设置此param_attr的Initializer,该参数将被\(Normal(0.0, std)\)初始化,且其中的\(std\) 为 \((\frac{2.0 }{filter\_elem\_num})^{0.5}\)。默认值None。
- **param_attr** (ParamAttr|None) – 可变形卷积的可学习参数/权重的参数属性。如果将其设置为None或ParamAttr的一个属性,可变形卷积将创建ParamAttr作为param_attr。如果没有设置此param_attr的Initializer,该参数将被Normal(0.0, std)初始化,且其中的std为 :math:`(\frac{2.0 }{filter\_elem\_num})^{0.5}`。默认值None。
- **bias_attr** (ParamAttr|bool|None) – 可变形卷积层的偏置的参数属性。如果设为False,则输出单元不会加偏置。如果设为None或者ParamAttr的一个属性,conv2d会创建ParamAttr作为bias_attr。如果不设置bias_attr的Initializer,偏置会被初始化为0。默认值None。
- **name** (str|None) – 该层的名字(可选项)。如果设为None,该层将会被自动命名。默认值None。
......
......@@ -21,7 +21,7 @@ linear_chain_crf
P(s) = (1/Z) exp(a_{s_1} + b_{s_L} + sum_{l=1}^L x_{s_l} + sum_{l=2}^L w_{s_{l-1},s_l})
其中Z是正则化值,所有可能序列的P(s)之和为1,x是线性链条件随机场(linear chain CRF)的发射(emission)特征权重。
其中Z是归一化值,所有可能序列的P(s)之和为1,x是线性链条件随机场(linear chain CRF)的发射(emission)特征权重。
线性链条件随机场最终输出mini-batch每个训练样本的条件概率的对数
......@@ -45,7 +45,7 @@ linear_chain_crf
2.由于该函数对所有可能序列的进行全局正则化,发射特征(emission feature)权重应是未缩放的。因此如果该函数带有发射特征(emission feature),并且发射特征是任意非线性激活函数的输出,则请勿调用该函数。
3.Emission的第二维度必须和标记数字(tag number)相同
3.Emission的第二维度必须和标记数字(tag number)相同
参数:
- **input** (Variable,LoDTensor,默认float类型LoDTensor) - 一个二维LoDTensor,shape为[N*D],N是mini-batch的大小,D是总标记数。线性链条件随机场的未缩放发射权重矩阵
......
......@@ -23,7 +23,7 @@ softmax操作符计算k维向量输入中所有其他维的指数和指数值的
- **input** (Variable) - 输入变量
- **use_cudnn** (bool) - 是否用cudnn核,只有在cudnn库安装时有效。为了数学稳定性,默认该项为False。
- **name** (str|None) - 该层名称(可选)。若为空,则自动为该层命名。默认:None
- **axis** (Variable) - 执行softmax计算的维度索引,应该在 :math:`[-1,rank-1]` 范围内,其中rank是输入变量的秩。 默认值:-1。
- **axis** (int) - 执行softmax计算的维度索引,应该在 :math:`[-1,rank-1]` 范围内,其中rank是输入变量的秩。 默认值:-1。
返回: softmax输出
......
......@@ -12,7 +12,7 @@ Swish 激活函数
参数:
- **x** (Variable) - Swish operator 的输入
- **beta** (浮点|1.0) - Swish operator 的常量beta
- **beta** (float|1.0) - Swish operator 的常量beta
- **name** (str|None) - 这个层的名称(可选)。如果设置为None,该层将被自动命名。
返回: Swish operator 的输出
......
......@@ -8,7 +8,7 @@ guard
使用with语句更改全局命名空间。
参数:
- **new_generator** (None|str|bytes) - 全局命名空间的新名称。请注意,Python2中的str在Python3中被区分为str和bytes两种,因此这里有两种类型。 默认值None。
- **new_generator** (None|str|bytes) - 全局命名空间的新名称。请注意,Python2中的str在Python3中被区分为str和bytes两种,因此这里有两种类型。 默认值None。
**代码示例**
......
......@@ -19,11 +19,11 @@
- 输入输出Layout:
2D卷积输入特征的Layout为[N, C, H, W]或[N, H, W, C], N即batch size,C是通道数,H、W是特征的高度和宽度,输出特征和输入特征的Layout一致。(相应的3D卷积输入特征的Layout为[N, C, D, H, W]或[N, D, H, W, C],但**注意**,Fluid的卷积当前只支持[N, C, H, W],[N, C, D, H, W]。)
2D卷积输入特征的Layout为[N, C, H, W]或[N, H, W, C], N即batch size,C是通道数,H、W是特征的高度和宽度,输出特征和输入特征的Layout一致。(相应的3D卷积输入特征的Layout为[N, C, D, H, W]或[N, D, H, W, C],但 **注意**,Fluid的卷积当前只支持[N, C, H, W],[N, C, D, H, W]。)
- 卷积核的Layout:
Fluid中2D卷积的卷积核(也称权重)的Layout为[C_o, C_in / groups, f_h, f_w],C_o、C_in表示输出、输入通道数,f_h、f_w表示卷积核窗口的高度和宽度,按行序存储。(相应的2D卷积的卷积核Layout为[C_o, C_in / groups, f_d, f_h, d_w],同样按行序存储。)
Fluid中2D卷积的卷积核(也称权重)的Layout为[C_o, C_in / groups, f_h, f_w],C_o、C_in表示输出、输入通道数,f_h、f_w表示卷积核窗口的高度和宽度,按行序存储。(相应的3D卷积的卷积核Layout为[C_o, C_in / groups, f_d, f_h, d_w],同样按行序存储。)
- 深度可分离卷积(depthwise separable convolution):
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册