Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
cff17eba
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
10
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
cff17eba
编写于
12月 17, 2019
作者:
Y
Youwei Song
提交者:
hong
12月 17, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update cn docs (#1644)
test=develop test=document_fix
上级
1a25b014
变更
17
隐藏空白更改
内联
并排
Showing
17 changed file
with
60 addition
and
55 deletion
+60
-55
doc/fluid/api_cn/dygraph_cn/BatchNorm_cn.rst
doc/fluid/api_cn/dygraph_cn/BatchNorm_cn.rst
+2
-3
doc/fluid/api_cn/dygraph_cn/BilinearTensorProduct_cn.rst
doc/fluid/api_cn/dygraph_cn/BilinearTensorProduct_cn.rst
+6
-4
doc/fluid/api_cn/dygraph_cn/Conv2DTranspose_cn.rst
doc/fluid/api_cn/dygraph_cn/Conv2DTranspose_cn.rst
+4
-3
doc/fluid/api_cn/dygraph_cn/Conv2D_cn.rst
doc/fluid/api_cn/dygraph_cn/Conv2D_cn.rst
+3
-3
doc/fluid/api_cn/dygraph_cn/Conv3DTranspose_cn.rst
doc/fluid/api_cn/dygraph_cn/Conv3DTranspose_cn.rst
+4
-3
doc/fluid/api_cn/dygraph_cn/Conv3D_cn.rst
doc/fluid/api_cn/dygraph_cn/Conv3D_cn.rst
+3
-2
doc/fluid/api_cn/dygraph_cn/Embedding_cn.rst
doc/fluid/api_cn/dygraph_cn/Embedding_cn.rst
+1
-4
doc/fluid/api_cn/dygraph_cn/GroupNorm_cn.rst
doc/fluid/api_cn/dygraph_cn/GroupNorm_cn.rst
+4
-3
doc/fluid/api_cn/dygraph_cn/LayerNorm_cn.rst
doc/fluid/api_cn/dygraph_cn/LayerNorm_cn.rst
+3
-3
doc/fluid/api_cn/dygraph_cn/Layer_cn.rst
doc/fluid/api_cn/dygraph_cn/Layer_cn.rst
+8
-8
doc/fluid/api_cn/dygraph_cn/NCE_cn.rst
doc/fluid/api_cn/dygraph_cn/NCE_cn.rst
+5
-3
doc/fluid/api_cn/dygraph_cn/PRelu_cn.rst
doc/fluid/api_cn/dygraph_cn/PRelu_cn.rst
+3
-2
doc/fluid/api_cn/dygraph_cn/Pool2D_cn.rst
doc/fluid/api_cn/dygraph_cn/Pool2D_cn.rst
+2
-4
doc/fluid/api_cn/dygraph_cn/SpectralNorm_cn.rst
doc/fluid/api_cn/dygraph_cn/SpectralNorm_cn.rst
+6
-5
doc/fluid/api_cn/dygraph_cn/TreeConv_cn.rst
doc/fluid/api_cn/dygraph_cn/TreeConv_cn.rst
+4
-3
doc/fluid/api_cn/dygraph_cn/load_dygraph_cn.rst
doc/fluid/api_cn/dygraph_cn/load_dygraph_cn.rst
+1
-1
doc/fluid/api_cn/dygraph_cn/save_dygraph_cn.rst
doc/fluid/api_cn/dygraph_cn/save_dygraph_cn.rst
+1
-1
未找到文件。
doc/fluid/api_cn/dygraph_cn/BatchNorm_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
BatchNorm
-------------------------------
.. py:class:: paddle.fluid.dygraph.BatchNorm(n
ame_scope, n
um_channels, act=None, is_test=False, momentum=0.9, epsilon=1e-05, param_attr=None, bias_attr=None, dtype='float32', data_layout='NCHW', in_place=False, moving_mean_name=None, moving_variance_name=None, do_model_average_for_mean_and_var=False, use_global_stats=False, trainable_statistics=False)
.. py:class:: paddle.fluid.dygraph.BatchNorm(num_channels, act=None, is_test=False, momentum=0.9, epsilon=1e-05, param_attr=None, bias_attr=None, dtype='float32', data_layout='NCHW', in_place=False, moving_mean_name=None, moving_variance_name=None, do_model_average_for_mean_and_var=False, use_global_stats=False, trainable_statistics=False)
该接口用于构建 ``BatchNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考 : `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/pdf/1502.03167.pdf>`_
...
...
@@ -35,7 +35,6 @@ BatchNorm
- :math:`\beta` : 可训练的偏差参数
参数:
- **name_scope** (str) - 该类的名称。
- **num_channels** (int) - 指明输入 ``Tensor`` 的通道数量。
- **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。
- **is_test** (bool, 可选) - 指示是否在测试阶段,非训练阶段使用训练过程中统计到的全局均值和全局方差。默认值:False。
...
...
@@ -65,7 +64,7 @@ BatchNorm
x = np.random.random(size=(3, 10, 3, 7)).astype('float32')
with fluid.dygraph.guard():
x = to_variable(x)
batch_norm = fluid.BatchNorm(
"batch_norm",
10)
batch_norm = fluid.BatchNorm(10)
hidden1 = batch_norm(x)
doc/fluid/api_cn/dygraph_cn/BilinearTensorProduct_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
BilinearTensorProduct
-------------------------------
.. py:class:: paddle.fluid.dygraph.BilinearTensorProduct(
name_scope, size, name=None, act=None, param_attr=None, bias_attr=None
)
.. py:class:: paddle.fluid.dygraph.BilinearTensorProduct(
input1_dim, input2_dim, output_dim, name=None, act=None, param_attr=None, bias_attr=None, dtype="float32"
)
该接口用于构建 ``BilinearTensorProduct`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。双线性乘积计算式子如下。
...
...
@@ -21,12 +21,14 @@ BilinearTensorProduct
参数:
- **name_scope** (str) – 指定类的名称。
- **size** (int) – 该层的维度大小。
- **input1_dim** (int) – 第一个输入的维度大小。
- **input1_dim** (int) – 第二个输入的维度大小。
- **output_dim** (int) – 输出的维度。
- **name** (str,可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。
- **act** (str,可选) – 对输出应用的激励函数。默认值为None。
- **param_attr** (ParamAttr) – 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **bias_attr** (ParamAttr) – 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr`。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。
返回:维度为[batch_size, size]的2D Tensor,数据类型与输入数据类型相同。
...
...
@@ -43,7 +45,7 @@ BilinearTensorProduct
layer1 = numpy.random.random((5, 5)).astype('float32')
layer2 = numpy.random.random((5, 4)).astype('float32')
bilinearTensorProduct = fluid.dygraph.nn.BilinearTensorProduct(
'BilinearTensorProduct', size
=1000)
input1_dim=5, input2_dim=4, output_dim
=1000)
ret = bilinearTensorProduct(fluid.dygraph.base.to_variable(layer1),
fluid.dygraph.base.to_variable(layer2))
...
...
doc/fluid/api_cn/dygraph_cn/Conv2DTranspose_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
Conv2DTranspose
-------------------------------
.. py:class:: paddle.fluid.dygraph.Conv2DTranspose(n
ame_scope, num_filters, output_size=None, filter_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None
)
.. py:class:: paddle.fluid.dygraph.Conv2DTranspose(n
um_channels, num_filters, filter_size, output_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype="float32"
)
该接口用于构建 ``Conv2DTranspose`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其将在神经网络中构建一个二维卷积转置层(Convlution2D Transpose Layer),其根据输入(input)、滤波器参数(num_filters、filter_size)、步长(stride)、填充(padding)、膨胀系数(dilation)、组数(groups)来计算得到输出特征图。输入和输出是 ``NCHW`` 格式,N是批数据大小,C是特征图个数,H是特征图高度,W是特征图宽度。滤波器的维度是 [M, C, H, W] ,M是输入特征图个数,C是输出特征图个数,H是滤波器高度,W是滤波器宽度。如果组数大于1,C等于输入特征图个数除以组数的结果。如果提供了偏移属性和激活函数类型,卷积的结果会和偏移相加,激活函数会作用在最终结果上。转置卷积的计算过程相当于卷积的反向计算,转置卷积又被称为反卷积(但其实并不是真正的反卷积)。详情请参考: `Conv2DTranspose <http://www.matthewzeiler.com/wp-content/uploads/2017/07/cvpr2010.pdf>`_ 。
...
...
@@ -45,10 +45,10 @@ Conv2DTranspose
& W_{out}\in[W'_{out},W'_{out} + strides[1])
参数:
- **n
ame_scope** (str) - 类的名称
。
- **n
um_channels** (int) - 输入图像的通道数
。
- **num_filters** (int) - 滤波器的个数,和输出特征图个数相同。
- **filter_size** (int|tuple) - 滤波器大小。如果 ``filter_size`` 是一个元组,则必须包含两个整型数,分别表示滤波器高度和宽度。否则,表示滤波器高度和宽度均为 ``filter_size`` 。
- **output_size** (int|tuple, 可选) - 输出特征图的大小。如果 ``output_size`` 是一个元组,则必须包含两个整型数,分别表示特征图高度和宽度。如果 ``output_size`` 是整型,表示特征图高度和宽度均为 ``output_size`` 。如果 ``output_size`` 为None,则会根据 ``filter_size`` 、 ``padding`` 和 ``stride`` 来计算 ``output_size`` 。如果 ``output_size`` 和 ``filter_size`` 同时指定,那么它们应满足上面的公式。默认值:None。
- **filter_size** (int|tuple, 可选) - 滤波器大小。如果 ``filter_size`` 是一个元组,则必须包含两个整型数,分别表示滤波器高度和宽度。否则,表示滤波器高度和宽度均为 ``filter_size`` 。如果 ``filter_size`` 为None,则会根据 ``output_size`` 、 ``padding`` 和 ``stride`` 来计算 ``filter_size`` 。默认值:None。
- **padding** (int|tuple, 可选) - 填充大小。如果 ``padding`` 为元组,则必须包含两个整型数,分别表示竖直和水平边界填充大小。否则,表示竖直和水平边界填充大小均为 ``padding`` 。默认值:0。
- **stride** (int|tuple, 可选) - 步长大小。如果 ``stride`` 为元组,则必须包含两个整型数,分别表示垂直和水平滑动步长。否则,表示垂直和水平滑动步长均为 ``stride`` 。默认值:1。
- **dilation** (int|tuple, 可选) - 膨胀系数大小。如果 ``dialation`` 为元组,则必须包含两个整型数,分别表示垂直和水平膨胀系数。否则,表示垂直和水平膨胀系数均为 ``dialation`` 。默认值:1。
...
...
@@ -57,6 +57,7 @@ Conv2DTranspose
- **bias_attr** (ParamAttr|bool, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **use_cudnn** (bool, 可选) - 是否使用cudnn内核,只有已安装cudnn库时才有效。默认值:True。
- **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值:None。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。
返回:无
...
...
doc/fluid/api_cn/dygraph_cn/Conv2D_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
Conv2D
-------------------------------
.. py:class:: paddle.fluid.dygraph.Conv2D(n
ame_scope
, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype='float32')
.. py:class:: paddle.fluid.dygraph.Conv2D(n
um_channels
, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype='float32')
该接口用于构建 ``Conv2D`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其将在神经网络中构建一个二维卷积层(Convolution2D Layer),其根据输入、滤波器参数(num_filters、filter_size)、步长(stride)、填充(padding)、膨胀系数(dilation)、组数(groups)参数来计算得到输出特征图。输入和输出是 ``NCHW`` 格式,N是批数据大小,C是特征图个数,H是特征图高度,W是特征图宽度。滤波器的维度是 [M, C, H, W] ,M是输出特征图个数,C是输入特征图个数,H是滤波器高度,W是滤波器宽度。如果组数大于1,C等于输入特征图个数除以组数的结果。如果提供了偏移属性和激活函数类型,卷积的结果会和偏移相加,激活函数会作用在最终结果上。详情请参考: `卷积 <http://ufldl.stanford.edu/tutorial/supervised/FeatureExtractionUsingConvolution/>`_ 。
...
...
@@ -42,7 +42,7 @@ Conv2D
W_{out} = \frac{\left ( W_{in}+2*paddings[1]-\left ( dilations[1]*\left ( W_{f}-1 \right )+1 \right ) \right )}{strides[1]}+1
参数:
- **n
ame_scope** (str) - 类的名称
。
- **n
um_channels** (int) - 输入图像的通道数
。
- **num_fliters** (int) - 滤波器的个数,和输出特征图个数相同。
- **filter_size** (int|tuple) - 滤波器大小。如果 ``filter_size`` 是一个元组,则必须包含两个整型数,分别表示滤波器高度和宽度。否则,表示滤波器高度和宽度均为 ``filter_size`` 。
- **stride** (int|tuple, 可选) - 步长大小。如果 ``stride`` 为元组,则必须包含两个整型数,分别表示垂直和水平滑动步长。否则,表示垂直和水平滑动步长均为 ``stride`` 。默认值:1。
...
...
@@ -71,7 +71,7 @@ Conv2D
data = np.random.uniform(-1, 1, [10, 3, 32, 32]).astype('float32')
with fluid.dygraph.guard():
conv2d = Conv2D(
"conv2d"
, 2, 3)
conv2d = Conv2D(
3
, 2, 3)
data = to_variable(data)
conv = conv2d(data)
...
...
doc/fluid/api_cn/dygraph_cn/Conv3DTranspose_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
Conv3DTranspose
-------------------------------
.. py:class:: paddle.fluid.dygraph.Conv3DTranspose(n
ame_scope, num_filters, output_size=None, filter_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, name=None
)
.. py:class:: paddle.fluid.dygraph.Conv3DTranspose(n
um_channels, num_filters, filter_size, output_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, name=None, dtype="float32"
)
该接口用于构建 ``Conv3DTranspose`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。3D卷积转置层(Convlution3D transpose layer)根据输入(input)、滤波器(filter)和卷积核膨胀(dilations)、步长(stride)、填充来计算输出特征层大小或者通过output_size指定输出特征层大小。输入(Input)和输出(Output)为NCDHW格式。其中 ``N`` 为batch大小, ``C`` 为通道数(channel), ``D`` 为特征深度, ``H`` 为特征高度, ``W`` 为特征宽度。转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解卷积转置层细节,请参考下面的说明和 参考文献_ 。如果参数bias_attr不为False, 转置卷积计算会添加偏置项。如果act不为None,则转置卷积计算之后添加相应的激活函数。
...
...
@@ -66,10 +66,10 @@ Conv3DTranspose
参数:
- **n
ame_scope** (str)- 该类的名称
。
- **n
um_channels** (int) - 输入图像的通道数
。
- **num_filters** (int) - 滤波器(卷积核)的个数,与输出的图片的通道数相同。
- **filter_size** (int|tuple) - 滤波器大小。如果filter_size是一个元组,则必须包含三个整型数,(filter_size_depth,filter_size_height, filter_size_width)。否则,filter_size_depth = filter_size_height = filter_size_width = filter_size。如果filter_size=None,则必须指定output_size, 其会根据output_size、padding和stride计算出滤波器大小。
- **output_size** (int|tuple,可选) - 输出图片的大小。如果 ``output_size`` 是一个元组(tuple),则该元形式为(image_H,image_W),这两个值必须为整型。如果未设置,则内部会使用filter_size、padding和stride来计算output_size。如果 ``output_size`` 和 ``filter_size`` 是同时指定的,那么它们应满足上面的公式。默认值为None。output_size和filter_size不能同时为None。
- **filter_size** (int|tuple,可选 - 滤波器大小。如果filter_size是一个元组,则必须包含三个整型数,(filter_size_depth,filter_size_height, filter_size_width)。否则,filter_size_depth = filter_size_height = filter_size_width = filter_size。如果filter_size=None,则必须指定output_size, 其会根据output_size、padding和stride计算出滤波器大小。默认值为None。output_size和filter_size不能同时为None。
- **padding** (int|tuple,可选) - 填充padding大小。padding参数在输入特征层每边添加 ``dilation * (kernel_size - 1) - padding`` 个0。如果padding是一个元组,它必须包含三个整数(padding_depth,padding_height,padding_width)。否则,padding_depth = padding_height = padding_width = padding。默认值为0。
- **stride** (int|tuple,可选) - 步长stride大小。滤波器和输入进行卷积计算时滑动的步长。如果stride是一个元组,那么元组的形式为(stride_depth,stride_height,stride_width)。否则,stride_depth = stride_height = stride_width = stride。默认值为1。
- **dilation** (int|tuple,可选) - 膨胀比例dilation大小。空洞卷积时会指该参数,滤波器对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息,根据 `可视化效果图 <https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md>`_ 较好理解。如果膨胀比例dilation是一个元组,那么元组的形式为(dilation_depth,dilation_height, dilation_width)。否则,dilation_depth = dilation_height = dilation_width = dilation。默认值为1。
...
...
@@ -79,6 +79,7 @@ Conv3DTranspose
- **use_cudnn** (bool,可选) - 是否使用cudnn内核,只有安装Paddle GPU版时才有效。默认值为True。
- **act** (str,可选) - 激活函数类型,如果设置为None,则不使用激活函数。默认值为None。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。
返回: 无
...
...
doc/fluid/api_cn/dygraph_cn/Conv3D_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
Conv3D
-------------------------------
.. py:class:: paddle.fluid.dygraph.Conv3D(n
ame_scope, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None
)
.. py:class:: paddle.fluid.dygraph.Conv3D(n
um_channels, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype="float32"
)
该接口用于构建 ``Conv3D`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。3D卷积层(convolution3D layer)根据输入、滤波器(filter)、步长(stride)、填充(padding)、膨胀(dilations)、组数参数计算得到输出。输入和输出是[N, C, D, H, W]的多维tensor,其中N是批尺寸,C是通道数,D是特征深度,H是特征高度,W是特征宽度。卷积三维(Convlution3D)和卷积二维(Convlution2D)相似,但多了一维深度(depth)。如果提供了bias属性和激活函数类型,bias会添加到卷积(convolution)的结果中相应的激活函数会作用在最终结果上。
...
...
@@ -42,7 +42,7 @@ Conv3D
W_{out}&= \frac{(W_{in} + 2 * paddings[2] - (dilations[2] * (W_f - 1) + 1))}{strides[2]} + 1
参数:
- **n
ame_scope** (str) - 该类的名称
。
- **n
um_channels** (int) - 输入图像的通道数
。
- **num_fliters** (int) - 滤波器(卷积核)的个数。和输出图像通道相同。
- **filter_size** (int|tuple) - 滤波器大小。如果filter_size是一个元组,则必须包含三个整型数,(filter_size_D, filter_size_H, filter_size_W)。如果filter_size是一个int型,则filter_size_depth = filter_size_height = filter_size_width = filter_size。
- **stride** (int|tuple,可选) - 步长(stride)大小。滤波器和输入进行卷积计算时滑动的步长。如果步长(stride)为元组,则必须包含三个整型数, (stride_D, stride_H, stride_W)。否则,stride_D = stride_H = stride_W = stride。默认值为1。
...
...
@@ -53,6 +53,7 @@ Conv3D
- **bias_attr** (ParamAttr,可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr`。
- **use_cudnn** (bool,可选) - 是否用cudnn内核,只有安装Paddle GPU版时才有效。默认值为True。
- **act** (str,可选) - 激活函数类型,如果设为None,则未添加激活函数。默认值为None。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。
返回:无
...
...
doc/fluid/api_cn/dygraph_cn/Embedding_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
Embedding
-------------------------------
.. py:class:: paddle.fluid.dygraph.Embedding(
name_scope,
size, is_sparse=False, is_distributed=False, padding_idx=None, param_attr=None, dtype='float32')
.. py:class:: paddle.fluid.dygraph.Embedding(size, is_sparse=False, is_distributed=False, padding_idx=None, param_attr=None, dtype='float32')
嵌入层(Embedding Layer)
...
...
@@ -52,7 +52,6 @@ Embedding
输入的padding_idx = 0,则对于输入id为0的词,进行padding处理。
参数:
- **name_scope** (str)-该类的名称。
- **size** (tuple|list) - embedding矩阵的维度。必须包含两个元素,第一个元素为vocab_size(词表大小), 第二个为emb_size(embedding层维度)。
- **is_sparse** (bool) - 是否使用稀疏的更新方式,这个参数只会影响反向的梯度更新的性能,sparse更新速度更快,推荐使用稀疏更新的方式。但某些optimizer不支持sparse更新,比如 :ref:`cn_api_fluid_optimizer_AdadeltaOptimizer` 、 :ref:`cn_api_fluid_optimizer_AdamaxOptimizer` 、 :ref:`cn_api_fluid_optimizer_DecayedAdagradOptimizer` 、 :ref:`cn_api_fluid_optimizer_FtrlOptimizer` 、 :ref:`cn_api_fluid_optimizer_LambOptimizer` 、:ref:`cn_api_fluid_optimizer_LarsMomentumOptimizer` ,此时is_sparse必须为False。默认为False。
- **is_distributed** (bool) - 是否使用分布式的方式存储embedding矩阵,仅在多机分布式cpu训练中使用。默认为False。
...
...
@@ -78,7 +77,6 @@ Embedding
dict_size = 20
with fluid.dygraph.guard():
emb = fluid.dygraph.Embedding(
name_scope='embedding',
size=[dict_size, 32],
param_attr='emb.w',
is_sparse=False)
...
...
@@ -94,7 +92,6 @@ Embedding
trainable=True)
with fluid.dygraph.guard():
emb = fluid.dygraph.Embedding(
name_scope='embedding',
size=[128, 100],
param_attr= w_param_attrs,
is_sparse=False)
...
...
doc/fluid/api_cn/dygraph_cn/GroupNorm_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,20 +3,21 @@
GroupNorm
-------------------------------
.. py:class:: paddle.fluid.dygraph.GroupNorm(
name_scope, groups, epsilon=1e-05, param_attr=None, bias_attr=None, act=None, data_layout='NCHW'
)
.. py:class:: paddle.fluid.dygraph.GroupNorm(
channels, groups, epsilon=1e-05, param_attr=None, bias_attr=None, act=None, data_layout='NCHW', dtype="float32"
)
**Group Normalization层**
该接口用于构建 ``GroupNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了组归一化层的功能。更多详情请参考: `Group Normalization <https://arxiv.org/abs/1803.08494>`_ 。
参数:
- **
name_scope** (str) - 该类的名称
。
- **
channels** (int) - 输入的通道数
。
- **groups** (int) - 从通道中分离出来的 ``group`` 的数目。
- **epsilon** (float, 可选) - 为防止方差除零,增加一个很小的值。默认值:1e-05。
- **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。
- **data_layout** (str, 可选) - 只支持“NCHW”(num_batches,channels,height,width)格式。默认值:“NCHW”。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。
返回:无
...
...
@@ -32,7 +33,7 @@ GroupNorm
with fluid.dygraph.guard():
x = np.random.random((8, 32, 32)).astype('float32')
groupNorm = fluid.dygraph.nn.GroupNorm(
'GroupNorm'
, groups=4)
groupNorm = fluid.dygraph.nn.GroupNorm(
channels=32
, groups=4)
ret = groupNorm(fluid.dygraph.base.to_variable(x))
doc/fluid/api_cn/dygraph_cn/LayerNorm_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
LayerNorm
-------------------------------
.. py:class:: paddle.fluid.dygraph.LayerNorm(n
ame_scope, scale=True, shift=True, begin_norm_axis=1, epsilon=1e-05, param_attr=None, bias_attr=None, act=None
)
.. py:class:: paddle.fluid.dygraph.LayerNorm(n
ormalized_shape, scale=True, shift=True, begin_norm_axis=1, epsilon=1e-05, param_attr=None, bias_attr=None, act=None, dtype="float32"
)
该接口用于构建 ``LayerNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了层归一化层(Layer Normalization Layer)的功能,其可以应用于小批量输入数据。更多详情请参考:`Layer Normalization <https://arxiv.org/pdf/1607.06450v1.pdf>`_
...
...
@@ -24,14 +24,14 @@ LayerNorm
参数:
- **n
ame_scope** (str) – 该类的名称
。
- **n
ormalized_shape** (int 或 list 或 tuple) – 需规范化的shape,期望的输入shape为 ``[*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]]``。如果是单个整数,则此模块将在最后一个维度上规范化(此时最后一维的维度需与该参数相同)
。
- **scale** (bool, 可选) - 指明是否在归一化后学习自适应增益 ``g`` 。默认值:True。
- **shift** (bool, 可选) - 指明是否在归一化后学习自适应偏差 ``b`` 。默认值:True。
- **begin_norm_axis** (int, 可选) - 指明归一化将沿着 ``begin_norm_axis`` 到 ``rank(input)`` 的维度执行。默认值:1。
- **epsilon** (float, 可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。
- **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **act** (str, 可选) - 应用于输出上的激活函数,如tanh、softmax、sigmoid,relu等,支持列表请参考 :ref:`api_guide_activations` ,默认值为None。
- **dtype** (str,可选) - 输出Tensor或LoDTensor的数据类型,数据类型必须为:float32或float64,默认为float32。
返回:无
...
...
doc/fluid/api_cn/dygraph_cn/Layer_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,12 +3,12 @@
Layer
-------------------------------
.. py:class:: paddle.fluid.dygraph.Layer(name_scope, dtype=core.VarDesc.VarType.FP32)
.. py:class:: paddle.fluid.dygraph.Layer(name_scope
=None
, dtype=core.VarDesc.VarType.FP32)
基于OOD实现的动态图Layer,包含该Layer的参数、前序运行的结构等信息。
参数:
- **name_scope** (str
) - 为Layer内部参数命名而采用的名称前缀。如果前缀为“my_model/layer_1”,在一个类名为MyLayer的Layer中,参数名为“my_model/layer_1/MyLayer/w_n”,其中w是参数的名称,n为自动生成的具有唯一性的后缀
。
- **name_scope** (str
,可选) - 为Layer内部参数命名而采用的名称前缀。如果前缀为“mylayer”,在一个类名为MyLayer的Layer中,参数名为“mylayer_0.w_n”,其中w是参数的名称,n为自动生成的具有唯一性的后缀。如果为None,前缀名将为小写的类名。默认值为None
。
- **dtype** (str|core.VarDesc.VarType, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 ``core.VarDesc.VarType.FP32`` 。
返回:无
...
...
@@ -21,14 +21,14 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__
返回类型:str
.. py:method:: create_parameter(
attr, shape, dtype
, is_bias=False, default_initializer=None)
.. py:method:: create_parameter(
shape, attr=None, dtype="float32"
, is_bias=False, default_initializer=None)
为Layer创建参数。
参数:
- **attr** (ParamAttr) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **shape** (list) - 参数的形状。列表中的数据类型必须为int。
- **dtype** (str|core.VarDesc.VarType, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为 ``core.VarDesc.VarType.FP32`` 。
- **attr** (ParamAttr,可选) - 指定权重参数属性的对象,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。默认值为None。
- **dtype** (str|core.VarDesc.VarType, 可选) - Layer中参数数据类型。如果设置为str,则可以是“bool”,“float16”,“float32”,“float64”,“int8”,“int16”,“int32”,“int64”,“uint8”或“uint16”。默认值为“float32”。
- **is_bias** (bool, 可选) - 是否是偏置参数。默认值:False。
- **default_initializer** (Initializer, 可选) - 默认的参数初始化方法。如果设置为None,则设置非bias参数的初始化方式为 :ref:`cn_api_fluid_initializer_XavierInitializer` ,设置bias参数的初始化方式为 :ref:`cn_api_fluid_initializer_ConstantInitializer` 。默认值:None。
...
...
@@ -122,7 +122,7 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__
import paddle.fluid as fluid
with fluid.dygraph.guard():
emb = fluid.dygraph.Embedding(
"emb",
[10, 10])
emb = fluid.dygraph.Embedding([10, 10])
state_dict = emb.state_dict()
fluid.save_dygraph(state_dict, "paddle_dy")
...
...
@@ -142,7 +142,7 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__
import paddle.fluid as fluid
with fluid.dygraph.guard():
emb = fluid.dygraph.Embedding(
"emb",
[10, 10])
emb = fluid.dygraph.Embedding([10, 10])
state_dict = emb.state_dict()
fluid.save_dygraph(state_dict, "paddle_dy")
para_state_dict, _ = fluid.load_dygraph("paddle_dy")
...
...
@@ -167,7 +167,7 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__
import paddle.fluid as fluid
with fluid.dygraph.guard():
emb = fluid.dygraph.Embedding(
"emb",
[10, 10])
emb = fluid.dygraph.Embedding([10, 10])
state_dict = emb.state_dict()
fluid.save_dygraph(state_dict, "paddle_dy")
para_state_dict, _ = fluid.load_dygraph("paddle_dy")
...
...
doc/fluid/api_cn/dygraph_cn/NCE_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,13 +3,13 @@
NCE
-------------------------------
.. py:class:: paddle.fluid.dygraph.NCE(n
ame_scope, num_total_classes, param_attr=None, bias_attr=None, num_neg_samples=None, sampler='uniform', custom_dist=None, seed=0, is_sparse=False
)
.. py:class:: paddle.fluid.dygraph.NCE(n
um_total_classes, dim, param_attr=None, bias_attr=None, num_neg_samples=None, sampler='uniform', custom_dist=None, seed=0, is_sparse=False, dtype="float32"
)
该接口用于构建 ``NCE`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了 ``NCE`` 损失函数的功能,其默认使用均匀分布进行抽样,计算并返回噪音对比估计( noise-contrastive estimation training loss)。更多详情请参考:`Noise-contrastive estimation: A new estimation principle for unnormalized statistical models <http://www.jmlr.org/proceedings/papers/v9/gutmann10a/gutmann10a.pdf>`_
参数:
- **name_scope** (str) – 该类的名称。
- **num_total_classes** (int) - 所有样本中的类别的总数。
- **dim** (int) - 输入的维度(一般为词嵌入的维度)。
- **sample_weight** (Variable, 可选) - 维度为\[batch_size, 1\],存储每个样本的权重。每个样本的默认权重为1.0。默认值:None。
- **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **bias_attr** (ParamAttr, 可选) - 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
...
...
@@ -18,6 +18,7 @@ NCE
- **custom_dist** (float[], 可选) – float[] 类型的数据,并且它的长度为 ``num_total_classes`` 。如果采样器类别为 ``custom_dist`` ,则使用此参数。custom_dist\[i\]是第i个类别被取样的概率。默认值:None
- **seed** (int, 可选) – 采样器使用的随机种子。默认值:0。
- **is_sparse** (bool, 可选) – 指明是否使用稀疏更新,如果为True, :math:`weight@GRAD` 和 :math:`bias@GRAD` 会变为 SelectedRows。默认值:False。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。
返回:无
...
...
@@ -55,8 +56,9 @@ NCE
embs3.append(emb_rlt)
embs3 = fluid.layers.concat(input=embs3, axis=1)
nce = fluid.NCE(
'nce',
nce = fluid.NCE(
num_total_classes=dict_size,
dim=embs3.shape[1],
num_neg_samples=2,
sampler="custom_dist",
custom_dist=nid_freq_arr.tolist(),
...
...
doc/fluid/api_cn/dygraph_cn/PRelu_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
PRelu
-------------------------------
.. py:class:: paddle.fluid.dygraph.PRelu(
name_scope, mode, param_attr=None
)
.. py:class:: paddle.fluid.dygraph.PRelu(
mode, input_shape=None, param_attr=None, dtype="float32"
)
该接口用于构建 ``PRelu`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了 ``PRelu`` 激活函数的三种激活方式。
...
...
@@ -14,7 +14,6 @@ PRelu
参数:
- **name_scope** (str) - 该类的名称。
- **mode** (str) - 权重共享模式。共提供三种激活方式:
.. code-block:: text
...
...
@@ -23,7 +22,9 @@ PRelu
channel:在同一个通道中的元素使用同一个 :math:`[\alpha]` 值
element:每一个元素有一个独立的 :math:`[\alpha]` 值
- **input_shape** (list 或 tuple,可选) - 输入的维度,该参数仅在mode参数为"all"时需要设置。默认为None。
- **param_attr** (ParamAttr, 可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值:"float32"。
返回:无
...
...
doc/fluid/api_cn/dygraph_cn/Pool2D_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
Pool2D
-------------------------------
.. py:class:: paddle.fluid.dygraph.Pool2D(
name_scope, pool_size=-1, pool_type='max', pool_stride=1, pool_padding=0, global_pooling=False, use_cudnn=True, ceil_mode=False, exclusive=True, dtype=VarType.FP32
)
.. py:class:: paddle.fluid.dygraph.Pool2D(
pool_size=-1, pool_type='max', pool_stride=1, pool_padding=0, global_pooling=False, use_cudnn=True, ceil_mode=False, exclusive=True
)
该接口用于构建 ``Pool2D`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其将在神经网络中构建一个二维池化层,并使用上述输入参数的池化配置,为二维空间池化操作,根据 ``input`` , 池化类型 ``pool_type`` , 池化核大小 ``pool_size`` , 步长 ``pool_stride`` ,填充 ``pool_padding`` 这些参数得到输出。
...
...
@@ -52,7 +52,6 @@ Pool2D
Output(i ,j) & = \frac{sum(Input[hstart:hend, wstart:wend])}{(hend - hstart) * (wend - wstart)}
参数:
- **name_scope** (str) - 该类的名称。
- **pool_size** (int|list|tuple, 可选) - 池化核的大小。如果它是一个元组或列表,它必须包含两个整数值, (pool_size_Height, pool_size_Width)。若为一个整数,则它的平方值将作为池化核大小,比如若pool_size=2, 则池化核大小为2x2。默认值:-1。
- **pool_type** (str, 可选) - 池化类型,可以是”max“对应max-pooling,“avg”对应average-pooling。默认为”max“。
- **pool_stride** (int|list|tuple, 可选) - 池化层的步长。如果它是一个元组或列表,它将包含两个整数,(pool_stride_Height, pool_stride_Width)。若为一个整数,则表示H和W维度上stride均为该值。默认值为1。
...
...
@@ -61,7 +60,6 @@ Pool2D
- **use_cudnn** (bool, 可选)- 是否用cudnn核,只有已安装cudnn库时才有效。默认True。
- **ceil_mode** (bool, 可选)- 是否用ceil函数计算输出高度和宽度。如果设为False,则使用floor函数。默认为False。
- **exclusive** (bool, 可选) - 是否在平均池化模式忽略填充值。默认为True。
- **dtype** (str, 可选) - 输入的数据类型,可以为float32或float64。默认为float32。
返回:无
...
...
@@ -80,7 +78,7 @@ Pool2D
with fluid.dygraph.guard():
data = np.random.random((3, 32, 32, 5)).astype('float32')
pool2d = fluid.dygraph.Pool2D(
"pool2d",
pool_size=2,
pool2d = fluid.dygraph.Pool2D(pool_size=2,
pool_type='max',
pool_stride=1,
global_pooling=False)
...
...
doc/fluid/api_cn/dygraph_cn/SpectralNorm_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,7 +3,7 @@
SpectralNorm
-------------------------------
.. py:class:: paddle.fluid.dygraph.SpectralNorm(
name_scope, dim=0, power_iters=1, eps=1e-12, name=None
)
.. py:class:: paddle.fluid.dygraph.SpectralNorm(
weight_shape, dim=0, power_iters=1, eps=1e-12, name=None, dtype="float32"
)
该接口用于构建 ``SpectralNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了谱归一化层的功能,用于计算fc、conv1d、conv2d、conv3d层的权重参数的谱正则值,输入权重参数应分别为2-D, 3-D, 4-D, 5-D张量,输出张量与输入张量维度相同。谱特征值计算方式如下:
...
...
@@ -25,11 +25,12 @@ SpectralNorm
可参考: `Spectral Normalization <https://arxiv.org/abs/1802.05957>`_
参数:
- **
name_scope** (str) - 该类的名称
。
- **
weight_shape** (list 或 tuple) - 权重参数的shape
。
- **dim** (int, 可选) - 将输入(weight)重塑为矩阵之前应排列到第一个的维度索引,如果input(weight)是fc层的权重,则应设置为0;如果input(weight)是conv层的权重,则应设置为1。默认值:0。
- **power_iters** (int, 可选) - 将用于计算的 ``SpectralNorm`` 功率迭代次数,默认值:1。
- **eps** (float, 可选) - ``eps`` 用于保证计算规范中的数值稳定性,分母会加上 ``eps`` 防止除零。默认值:1e-12。
- **name** (str, 可选) - 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。
返回:无
...
...
@@ -41,7 +42,7 @@ SpectralNorm
import numpy as np
with fluid.dygraph.guard():
x
= np.random.random((2, 8, 32, 32)).astype('float32')
spectralNorm = fluid.dygraph.nn.SpectralNorm(
'SpectralNorm'
, dim=1, power_iters=2)
ret = spectralNorm(fluid.dygraph.base.to_variable(
x
))
weight
= np.random.random((2, 8, 32, 32)).astype('float32')
spectralNorm = fluid.dygraph.nn.SpectralNorm(
weight.shape
, dim=1, power_iters=2)
ret = spectralNorm(fluid.dygraph.base.to_variable(
weight
))
doc/fluid/api_cn/dygraph_cn/TreeConv_cn.rst
浏览文件 @
cff17eba
...
...
@@ -3,13 +3,13 @@
TreeConv
-------------------------------
.. py:class:: paddle.fluid.dygraph.TreeConv(
name_scope, output_size, num_filters=1, max_depth=2, act='tanh', param_attr=None, bias_attr=None, name=None
)
.. py:class:: paddle.fluid.dygraph.TreeConv(
feature_size, output_size, num_filters=1, max_depth=2, act='tanh', param_attr=None, bias_attr=None, name=None, dtype="float32"
)
该接口用于构建 ``TreeConv`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其将在神经网络中构建一个基于树结构的卷积(Tree-Based Convolution)运算。基于树的卷积是基于树的卷积神经网络(TBCNN,Tree-Based Convolution Neural Network)的一部分,它用于对树结构进行分类,例如抽象语法树。 Tree-Based Convolution提出了一种称为连续二叉树的数据结构,它将多路(multiway)树视为二叉树。详情请参考: `基于树的卷积论文 <https://arxiv.org/abs/1409.5718v1>`_ 。
参数:
- **
name_scope** (str) – 类的名称
。
- **
feature_size** (int) – nodes_vector的shape的最后一维的维度
。
- **output_size** (int) – 输出特征宽度。
- **num_filters** (int, 可选) – 滤波器的数量,默认值为1。
- **max_depth** (int, 可选) – 滤波器的最大深度,默认值为2。
...
...
@@ -17,6 +17,7 @@ TreeConv
- **param_attr** (ParamAttr, 可选) – 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **bias_attr** (ParamAttr, 可选) – 指定偏置参数属性的对象。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 :ref:`cn_api_fluid_ParamAttr` 。
- **name** (str, 可选) – 具体用法请参见 :ref:`api_guide_Name` ,一般无需设置,默认值为None。
- **dtype** (str, 可选) - 数据类型,可以为"float32"或"float64"。默认值为"float32"。
返回:无
...
...
@@ -31,7 +32,7 @@ TreeConv
nodes_vector = numpy.random.random((1, 10, 5)).astype('float32')
edge_set = numpy.random.random((1, 9, 2)).astype('int32')
treeConv = fluid.dygraph.nn.TreeConv(
'TreeConv'
, output_size=6, num_filters=1, max_depth=2)
feature_size=5
, output_size=6, num_filters=1, max_depth=2)
ret = treeConv(fluid.dygraph.base.to_variable(nodes_vector), fluid.dygraph.base.to_variable(edge_set))
属性
...
...
doc/fluid/api_cn/dygraph_cn/load_dygraph_cn.rst
浏览文件 @
cff17eba
...
...
@@ -27,7 +27,7 @@ load_dygraph
import paddle.fluid as fluid
with fluid.dygraph.guard():
emb = fluid.dygraph.Embedding(
"emb",
[10, 10])
emb = fluid.dygraph.Embedding([10, 10])
state_dict = emb.state_dict()
fluid.save_dygraph( state_dict, "paddle_dy")
adam = fluid.optimizer.Adam( learning_rate = fluid.layers.noam_decay( 100, 10000) )
...
...
doc/fluid/api_cn/dygraph_cn/save_dygraph_cn.rst
浏览文件 @
cff17eba
...
...
@@ -27,7 +27,7 @@ save_dygraph
import paddle.fluid as fluid
with fluid.dygraph.guard():
emb = fluid.dygraph.Embedding(
"emb",
[10, 10])
emb = fluid.dygraph.Embedding([10, 10])
state_dict = emb.state_dict()
fluid.save_dygraph(state_dict, "paddle_dy") # 会保存为 paddle_dy.pdparams
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录