提交 a09152a3 编写于 作者: S swtkiwi

test=develop

上级 6281ff04
...@@ -7,6 +7,12 @@ append_backward ...@@ -7,6 +7,12 @@ append_backward
.. py:function:: paddle.fluid.backward.append_backward(loss, parameter_list=None, no_grad_set=None, callbacks=None) .. py:function:: paddle.fluid.backward.append_backward(loss, parameter_list=None, no_grad_set=None, callbacks=None)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.append_backward
:alias: paddle.append_backward,paddle.framework.append_backward
:old_api: paddle.fluid.backward.append_backward
......
...@@ -7,6 +7,12 @@ gradients ...@@ -7,6 +7,12 @@ gradients
.. py:function:: paddle.fluid.backward.gradients(targets, inputs, target_gradients=None, no_grad_set=None) .. py:function:: paddle.fluid.backward.gradients(targets, inputs, target_gradients=None, no_grad_set=None)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.gradients
:alias: paddle.gradients,paddle.framework.gradients
:old_api: paddle.fluid.backward.gradients
......
...@@ -11,6 +11,9 @@ GradientClipByGlobalNorm ...@@ -11,6 +11,9 @@ GradientClipByGlobalNorm
将一个 Tensor列表 :math:`t\_list` 中所有Tensor的L2范数之和,限定在 ``clip_norm`` 范围内。 将一个 Tensor列表 :math:`t\_list` 中所有Tensor的L2范数之和,限定在 ``clip_norm`` 范围内。
- 如果范数之和大于 ``clip_norm`` ,则所有 Tensor 会乘以一个系数进行压缩 - 如果范数之和大于 ``clip_norm`` ,则所有 Tensor 会乘以一个系数进行压缩
......
...@@ -11,6 +11,9 @@ GradientClipByNorm ...@@ -11,6 +11,9 @@ GradientClipByNorm
将输入的多维Tensor :math:`X` 的L2范数限制在 ``clip_norm`` 范围之内。 将输入的多维Tensor :math:`X` 的L2范数限制在 ``clip_norm`` 范围之内。
- 如果L2范数大于 ``clip_norm`` ,则该 Tensor 会乘以一个系数进行压缩 - 如果L2范数大于 ``clip_norm`` ,则该 Tensor 会乘以一个系数进行压缩
......
...@@ -12,6 +12,9 @@ GradientClipByValue ...@@ -12,6 +12,9 @@ GradientClipByValue
将输入的多维Tensor :math:`X` 的值限制在 [min, max] 范围。 将输入的多维Tensor :math:`X` 的值限制在 [min, max] 范围。
输入的 Tensor 不是从该类里传入, 而是默认会选择 ``Program`` 中全部的梯度,如果 ``need_clip`` 不为None,则可以只选择部分参数进行梯度裁剪。 输入的 Tensor 不是从该类里传入, 而是默认会选择 ``Program`` 中全部的梯度,如果 ``need_clip`` 不为None,则可以只选择部分参数进行梯度裁剪。
......
...@@ -10,6 +10,9 @@ set_gradient_clip ...@@ -10,6 +10,9 @@ set_gradient_clip
.. warning:: .. warning::
此API对位置使用的要求较高,其必须位于组建网络之后, ``minimize`` 之前,因此在未来版本中可能被删除,故不推荐使用。推荐在 ``optimizer`` 初始化时设置梯度裁剪。 此API对位置使用的要求较高,其必须位于组建网络之后, ``minimize`` 之前,因此在未来版本中可能被删除,故不推荐使用。推荐在 ``optimizer`` 初始化时设置梯度裁剪。
有三种裁剪策略: :ref:`cn_api_fluid_clip_GradientClipByGlobalNorm` 、 :ref:`cn_api_fluid_clip_GradientClipByNorm` 、 :ref:`cn_api_fluid_clip_GradientClipByValue` 。 有三种裁剪策略: :ref:`cn_api_fluid_clip_GradientClipByGlobalNorm` 、 :ref:`cn_api_fluid_clip_GradientClipByNorm` 、 :ref:`cn_api_fluid_clip_GradientClipByValue` 。
......
...@@ -10,6 +10,9 @@ BackwardStrategy ...@@ -10,6 +10,9 @@ BackwardStrategy
**注意:该API只在动态图下生效** **注意:该API只在动态图下生效**
BackwardStrategy是描述动态图反向执行的策略,主要功能是定义动态图反向执行时的不同策略 BackwardStrategy是描述动态图反向执行的策略,主要功能是定义动态图反向执行时的不同策略
......
...@@ -11,6 +11,9 @@ BatchNorm ...@@ -11,6 +11,9 @@ BatchNorm
该接口用于构建 ``BatchNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考 : `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/pdf/1502.03167.pdf>`_ 该接口用于构建 ``BatchNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考 : `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/pdf/1502.03167.pdf>`_
当use_global_stats = False时,:math:`\mu_{\beta}` 和 :math:`\sigma_{\beta}^{2}` 是minibatch的统计数据。计算公式如下: 当use_global_stats = False时,:math:`\mu_{\beta}` 和 :math:`\sigma_{\beta}^{2}` 是minibatch的统计数据。计算公式如下:
......
...@@ -11,6 +11,9 @@ BilinearTensorProduct ...@@ -11,6 +11,9 @@ BilinearTensorProduct
该接口用于构建 ``BilinearTensorProduct`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。双线性乘积计算式子如下。 该接口用于构建 ``BilinearTensorProduct`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。双线性乘积计算式子如下。
.. math:: .. math::
......
...@@ -5,6 +5,11 @@ Conv2DTranspose ...@@ -5,6 +5,11 @@ Conv2DTranspose
.. py:class:: paddle.fluid.dygraph.Conv2DTranspose(num_channels, num_filters, filter_size, output_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype="float32") .. py:class:: paddle.fluid.dygraph.Conv2DTranspose(num_channels, num_filters, filter_size, output_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype="float32")
:alias_main: paddle.nn.Conv2DTranspose
:alias: paddle.nn.Conv2DTranspose,paddle.nn.layer.Conv2DTranspose,paddle.nn.layer.conv.Conv2DTranspose
......
...@@ -5,6 +5,11 @@ Conv3DTranspose ...@@ -5,6 +5,11 @@ Conv3DTranspose
.. py:class:: paddle.fluid.dygraph.Conv3DTranspose(num_channels, num_filters, filter_size, output_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, name=None, dtype="float32") .. py:class:: paddle.fluid.dygraph.Conv3DTranspose(num_channels, num_filters, filter_size, output_size=None, padding=0, stride=1, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, name=None, dtype="float32")
:alias_main: paddle.nn.Conv3DTranspose
:alias: paddle.nn.Conv3DTranspose,paddle.nn.layer.Conv3DTranspose,paddle.nn.layer.conv.Conv3DTranspose
......
...@@ -5,6 +5,11 @@ Conv3D ...@@ -5,6 +5,11 @@ Conv3D
.. py:class:: paddle.fluid.dygraph.Conv3D(num_channels, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype="float32") .. py:class:: paddle.fluid.dygraph.Conv3D(num_channels, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, dtype="float32")
:alias_main: paddle.nn.Conv3D
:alias: paddle.nn.Conv3D,paddle.nn.layer.Conv3D,paddle.nn.layer.conv.Conv3D
......
...@@ -10,6 +10,9 @@ CosineDecay ...@@ -10,6 +10,9 @@ CosineDecay
该接口提供按余弦函数衰减学习率的功能。 该接口提供按余弦函数衰减学习率的功能。
余弦衰减的计算方式如下。 余弦衰减的计算方式如下。
......
...@@ -11,6 +11,9 @@ Embedding ...@@ -11,6 +11,9 @@ Embedding
嵌入层(Embedding Layer) 嵌入层(Embedding Layer)
该接口用于构建 ``Embedding`` 的一个可调用对象,具体用法参照 ``代码示例`` 。其根据input中的id信息从embedding矩阵中查询对应embedding信息,并会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。 该接口用于构建 ``Embedding`` 的一个可调用对象,具体用法参照 ``代码示例`` 。其根据input中的id信息从embedding矩阵中查询对应embedding信息,并会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。
......
...@@ -10,6 +10,9 @@ ExponentialDecay ...@@ -10,6 +10,9 @@ ExponentialDecay
该接口提供一种学习率按指数函数衰减的功能。 该接口提供一种学习率按指数函数衰减的功能。
指数衰减的计算方式如下。 指数衰减的计算方式如下。
......
...@@ -11,6 +11,9 @@ GroupNorm ...@@ -11,6 +11,9 @@ GroupNorm
**Group Normalization层** **Group Normalization层**
该接口用于构建 ``GroupNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了组归一化层的功能。更多详情请参考: `Group Normalization <https://arxiv.org/abs/1803.08494>`_ 。 该接口用于构建 ``GroupNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了组归一化层的功能。更多详情请参考: `Group Normalization <https://arxiv.org/abs/1803.08494>`_ 。
......
...@@ -5,6 +5,11 @@ InstanceNorm ...@@ -5,6 +5,11 @@ InstanceNorm
.. py:class:: paddle.fluid.dygraph.InstanceNorm(num_channels, epsilon=1e-05, param_attr=None, bias_attr=None, dtype='float32') .. py:class:: paddle.fluid.dygraph.InstanceNorm(num_channels, epsilon=1e-05, param_attr=None, bias_attr=None, dtype='float32')
:alias_main: paddle.nn.InstanceNorm
:alias: paddle.nn.InstanceNorm,paddle.nn.layer.InstanceNorm,paddle.nn.layer.norm.InstanceNorm
该接口用于构建 ``InstanceNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。 该接口用于构建 ``InstanceNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。
可用作卷积和全连接操作的实例正则化函数,根据每个样本的每个通道的均值和方差信息进行正则化。该层需要的数据格式如下: 可用作卷积和全连接操作的实例正则化函数,根据每个样本的每个通道的均值和方差信息进行正则化。该层需要的数据格式如下:
......
...@@ -10,6 +10,9 @@ InverseTimeDecay ...@@ -10,6 +10,9 @@ InverseTimeDecay
该接口提供反时限学习率衰减的功能。 该接口提供反时限学习率衰减的功能。
反时限学习率衰减计算方式如下。 反时限学习率衰减计算方式如下。
......
...@@ -5,6 +5,12 @@ LayerList ...@@ -5,6 +5,12 @@ LayerList
.. py:class:: paddle.fluid.dygraph.LayerList(sublayers=None) .. py:class:: paddle.fluid.dygraph.LayerList(sublayers=None)
:alias_main: paddle.nn.LayerList
:alias: paddle.nn.LayerList
:old_api: paddle.fluid.dygraph.container.LayerList
......
...@@ -11,6 +11,9 @@ LayerNorm ...@@ -11,6 +11,9 @@ LayerNorm
该接口用于构建 ``LayerNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了层归一化层(Layer Normalization Layer)的功能,其可以应用于小批量输入数据。更多详情请参考:`Layer Normalization <https://arxiv.org/pdf/1607.06450v1.pdf>`_ 该接口用于构建 ``LayerNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了层归一化层(Layer Normalization Layer)的功能,其可以应用于小批量输入数据。更多详情请参考:`Layer Normalization <https://arxiv.org/pdf/1607.06450v1.pdf>`_
计算公式如下 计算公式如下
......
...@@ -5,6 +5,12 @@ Layer ...@@ -5,6 +5,12 @@ Layer
.. py:class:: paddle.fluid.dygraph.Layer(name_scope=None, dtype=core.VarDesc.VarType.FP32) .. py:class:: paddle.fluid.dygraph.Layer(name_scope=None, dtype=core.VarDesc.VarType.FP32)
:alias_main: paddle.nn.Layer
:alias: paddle.nn.Layer
:old_api: paddle.fluid.dygraph.layers.Layer
......
...@@ -12,6 +12,9 @@ Linear ...@@ -12,6 +12,9 @@ Linear
**线性变换层:** **线性变换层:**
.. math:: .. math::
......
...@@ -10,6 +10,9 @@ NaturalExpDecay ...@@ -10,6 +10,9 @@ NaturalExpDecay
该接口提供按自然指数衰减学习率的功能。 该接口提供按自然指数衰减学习率的功能。
自然指数衰减的计算方式如下。 自然指数衰减的计算方式如下。
......
...@@ -10,6 +10,9 @@ NoamDecay ...@@ -10,6 +10,9 @@ NoamDecay
该接口提供Noam衰减学习率的功能。 该接口提供Noam衰减学习率的功能。
Noam衰减的计算方式如下。 Noam衰减的计算方式如下。
......
...@@ -5,6 +5,12 @@ ParallelEnv ...@@ -5,6 +5,12 @@ ParallelEnv
.. py:class:: paddle.fluid.dygraph.ParallelEnv() .. py:class:: paddle.fluid.dygraph.ParallelEnv()
:alias_main: paddle.imperative.ParallelEnv
:alias: paddle.imperative.ParallelEnv
:old_api: paddle.fluid.dygraph.parallel.ParallelEnv
**注意:** **注意:**
**这个类的曾用名为 Env, 这个旧的名字会被废弃,请使用新的类名 ParallelEnv。** **这个类的曾用名为 Env, 这个旧的名字会被废弃,请使用新的类名 ParallelEnv。**
......
...@@ -5,6 +5,12 @@ ParameterList ...@@ -5,6 +5,12 @@ ParameterList
.. py:class:: paddle.fluid.dygraph.ParameterList(parameters=None) .. py:class:: paddle.fluid.dygraph.ParameterList(parameters=None)
:alias_main: paddle.nn.ParameterList
:alias: paddle.nn.ParameterList
:old_api: paddle.fluid.dygraph.container.ParameterList
......
...@@ -10,6 +10,9 @@ PiecewiseDecay ...@@ -10,6 +10,9 @@ PiecewiseDecay
该接口提供对初始学习率进行分段(piecewise)常数衰减的功能。 该接口提供对初始学习率进行分段(piecewise)常数衰减的功能。
分段常数衰减的过程举例描述如下。 分段常数衰减的过程举例描述如下。
......
...@@ -10,6 +10,9 @@ PolynomialDecay ...@@ -10,6 +10,9 @@ PolynomialDecay
该接口提供学习率按多项式衰减的功能。通过多项式衰减函数,使得学习率值逐步从初始的 ``learning_rate``,衰减到 ``end_learning_rate`` 。 该接口提供学习率按多项式衰减的功能。通过多项式衰减函数,使得学习率值逐步从初始的 ``learning_rate``,衰减到 ``end_learning_rate`` 。
计算方式如下。 计算方式如下。
......
...@@ -11,6 +11,9 @@ Pool2D ...@@ -11,6 +11,9 @@ Pool2D
该接口用于构建 ``Pool2D`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其将在神经网络中构建一个二维池化层,并使用上述输入参数的池化配置,为二维空间池化操作,根据 ``input`` , 池化类型 ``pool_type`` , 池化核大小 ``pool_size`` , 步长 ``pool_stride`` ,填充 ``pool_padding`` 这些参数得到输出。 该接口用于构建 ``Pool2D`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其将在神经网络中构建一个二维池化层,并使用上述输入参数的池化配置,为二维空间池化操作,根据 ``input`` , 池化类型 ``pool_type`` , 池化核大小 ``pool_size`` , 步长 ``pool_stride`` ,填充 ``pool_padding`` 这些参数得到输出。
输入X和输出Out是NCHW格式,N为批大小,C是通道数,H是特征高度,W是特征宽度。参数( ``ksize``, ``strides``, ``paddings`` )含有两个整型元素。分别表示高度和宽度上的参数。输入X的大小和输出Out的大小可能不一致。 输入X和输出Out是NCHW格式,N为批大小,C是通道数,H是特征高度,W是特征宽度。参数( ``ksize``, ``strides``, ``paddings`` )含有两个整型元素。分别表示高度和宽度上的参数。输入X的大小和输出Out的大小可能不一致。
......
...@@ -5,6 +5,12 @@ ProgramTranslator ...@@ -5,6 +5,12 @@ ProgramTranslator
.. py:class:: paddle.fluid.dygraph.dygraph_to_static.ProgramTranslator() .. py:class:: paddle.fluid.dygraph.dygraph_to_static.ProgramTranslator()
:alias_main: paddle.imperative.ProgramTranslator
:alias: paddle.imperative.ProgramTranslator
:old_api: paddle.fluid.dygraph.ProgramTranslator
将动态图函数转为静态图函数的类。该类是个单例(singleton)。 将动态图函数转为静态图函数的类。该类是个单例(singleton)。
参数: 参数:
......
...@@ -5,6 +5,12 @@ Sequential ...@@ -5,6 +5,12 @@ Sequential
.. py:class:: paddle.fluid.dygraph.Sequential(*layers) .. py:class:: paddle.fluid.dygraph.Sequential(*layers)
:alias_main: paddle.nn.Sequential
:alias: paddle.nn.Sequential
:old_api: paddle.fluid.dygraph.container.Sequential
......
...@@ -11,6 +11,9 @@ SpectralNorm ...@@ -11,6 +11,9 @@ SpectralNorm
该接口用于构建 ``SpectralNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了谱归一化层的功能,用于计算fc、conv1d、conv2d、conv3d层的权重参数的谱正则值,输入权重参数应分别为2-D, 3-D, 4-D, 5-D张量,输出张量与输入张量维度相同。谱特征值计算方式如下: 该接口用于构建 ``SpectralNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。其中实现了谱归一化层的功能,用于计算fc、conv1d、conv2d、conv3d层的权重参数的谱正则值,输入权重参数应分别为2-D, 3-D, 4-D, 5-D张量,输出张量与输入张量维度相同。谱特征值计算方式如下:
步骤1:生成形状为[H]的向量U,以及形状为[W]的向量V,其中H是输入权重张量的第 ``dim`` 个维度,W是剩余维度的乘积。 步骤1:生成形状为[H]的向量U,以及形状为[W]的向量V,其中H是输入权重张量的第 ``dim`` 个维度,W是剩余维度的乘积。
......
...@@ -10,6 +10,12 @@ TracedLayer ...@@ -10,6 +10,12 @@ TracedLayer
TracedLayer用于将前向动态图模型转换为静态图模型,主要用于将动态图保存后做在线C++预测。除此以外,用户也可使用转换后的静态图模型在Python端做预测,通常比原先的动态图性能更好。 TracedLayer用于将前向动态图模型转换为静态图模型,主要用于将动态图保存后做在线C++预测。除此以外,用户也可使用转换后的静态图模型在Python端做预测,通常比原先的动态图性能更好。
TracedLayer使用 ``Executor`` 和 ``CompiledProgram`` 运行静态图模型。转换后的静态图模型与原动态图模型共享参数。 TracedLayer使用 ``Executor`` 和 ``CompiledProgram`` 运行静态图模型。转换后的静态图模型与原动态图模型共享参数。
......
...@@ -10,6 +10,9 @@ guard ...@@ -10,6 +10,9 @@ guard
通过with语句创建一个dygraph运行的context,执行context代码。 通过with语句创建一个dygraph运行的context,执行context代码。
参数: 参数:
......
...@@ -10,6 +10,12 @@ load_dygraph ...@@ -10,6 +10,12 @@ load_dygraph
该接口尝试从磁盘中加载参数或优化器的 ``dict`` 。 该接口尝试从磁盘中加载参数或优化器的 ``dict`` 。
该接口会同时加载 ``model_path + ".pdparams"`` 和 ``model_path + ".pdopt"`` 中的内容。 该接口会同时加载 ``model_path + ".pdparams"`` 和 ``model_path + ".pdopt"`` 中的内容。
......
...@@ -10,6 +10,12 @@ no_grad ...@@ -10,6 +10,12 @@ no_grad
创建一个上下文来禁用动态图梯度计算。在此模式下,每次计算的结果都将具有stop_gradient=True。 创建一个上下文来禁用动态图梯度计算。在此模式下,每次计算的结果都将具有stop_gradient=True。
也可以用作一个装饰器(确保不要用括号来初始化)。 也可以用作一个装饰器(确保不要用括号来初始化)。
......
...@@ -9,6 +9,12 @@ prepare_context ...@@ -9,6 +9,12 @@ prepare_context
该API是进行多进程多卡训练的环境配置接口,接受一个ParallelStrategy结构体变量作为输入。当strategy属性中的nums_trainer小于2时,API会直接返回,当nums_trainer大于1且为CUDAPlace时,由于目前动态图模式仅支持GPU多卡训练,仅能配置NCCL多卡训练的环境,所以此时会对NCCL环境进行配置,具体内容包括:生成NCCL ID,并广播至参与训练的各进程,用于支持的处理器同步操作,创建并配置NCCL通信器等。 该API是进行多进程多卡训练的环境配置接口,接受一个ParallelStrategy结构体变量作为输入。当strategy属性中的nums_trainer小于2时,API会直接返回,当nums_trainer大于1且为CUDAPlace时,由于目前动态图模式仅支持GPU多卡训练,仅能配置NCCL多卡训练的环境,所以此时会对NCCL环境进行配置,具体内容包括:生成NCCL ID,并广播至参与训练的各进程,用于支持的处理器同步操作,创建并配置NCCL通信器等。
参数: 参数:
......
...@@ -10,6 +10,12 @@ save_dygraph ...@@ -10,6 +10,12 @@ save_dygraph
该接口将传入的参数或优化器的 ``dict`` 保存到磁盘上。 该接口将传入的参数或优化器的 ``dict`` 保存到磁盘上。
``state_dict`` 是通过 :ref:`cn_api_fluid_dygraph_Layer` 的 ``state_dict()`` 方法得到的。 ``state_dict`` 是通过 :ref:`cn_api_fluid_dygraph_Layer` 的 ``state_dict()`` 方法得到的。
......
...@@ -10,6 +10,9 @@ to_variable ...@@ -10,6 +10,9 @@ to_variable
该函数实现从numpy\.ndarray对象或者Variable对象创建一个 ``Variable`` 类型的对象。 该函数实现从numpy\.ndarray对象或者Variable对象创建一个 ``Variable`` 类型的对象。
参数: 参数:
......
...@@ -7,6 +7,12 @@ Executor ...@@ -7,6 +7,12 @@ Executor
.. py:class:: paddle.fluid.executor.Executor (place=None) .. py:class:: paddle.fluid.executor.Executor (place=None)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.Executor
:alias: paddle.Executor,paddle.framework.Executor
:old_api: paddle.fluid.executor.Executor
......
...@@ -7,6 +7,12 @@ global_scope ...@@ -7,6 +7,12 @@ global_scope
.. py:function:: paddle.fluid.global_scope() .. py:function:: paddle.fluid.global_scope()
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.global_scope
:alias: paddle.global_scope,paddle.framework.global_scope
:old_api: paddle.fluid.executor.global_scope
......
...@@ -7,6 +7,12 @@ scope_guard ...@@ -7,6 +7,12 @@ scope_guard
.. py:function:: paddle.fluid.executor.scope_guard (scope) .. py:function:: paddle.fluid.executor.scope_guard (scope)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.scope_guard
:alias: paddle.scope_guard,paddle.framework.scope_guard
:old_api: paddle.fluid.executor.scope_guard
......
...@@ -10,6 +10,12 @@ BuildStrategy ...@@ -10,6 +10,12 @@ BuildStrategy
``BuildStrategy`` 使用户更方便地控制 :ref:`cn_api_fluid_ParallelExecutor` 中计算图的建造方法,可通过设置 ``ParallelExecutor`` 中的 ``BuildStrategy`` 成员来实现此功能。 ``BuildStrategy`` 使用户更方便地控制 :ref:`cn_api_fluid_ParallelExecutor` 中计算图的建造方法,可通过设置 ``ParallelExecutor`` 中的 ``BuildStrategy`` 成员来实现此功能。
**代码示例** **代码示例**
......
...@@ -5,6 +5,12 @@ CPUPlace ...@@ -5,6 +5,12 @@ CPUPlace
.. py:class:: paddle.fluid.CPUPlace .. py:class:: paddle.fluid.CPUPlace
:alias_main: paddle.CPUPlace
:alias: paddle.CPUPlace,paddle.framework.CPUPlace
:old_api: paddle.fluid.core.CPUPlace
......
...@@ -5,6 +5,12 @@ CUDAPinnedPlace ...@@ -5,6 +5,12 @@ CUDAPinnedPlace
.. py:class:: paddle.fluid.CUDAPinnedPlace .. py:class:: paddle.fluid.CUDAPinnedPlace
:alias_main: paddle.CUDAPinnedPlace
:alias: paddle.CUDAPinnedPlace,paddle.framework.CUDAPinnedPlace
:old_api: paddle.fluid.core.CUDAPinnedPlace
......
...@@ -5,6 +5,12 @@ CUDAPlace ...@@ -5,6 +5,12 @@ CUDAPlace
.. py:class:: paddle.fluid.CUDAPlace .. py:class:: paddle.fluid.CUDAPlace
:alias_main: paddle.CUDAPlace
:alias: paddle.CUDAPlace,paddle.framework.CUDAPlace
:old_api: paddle.fluid.core.CUDAPlace
......
...@@ -10,6 +10,12 @@ CompiledProgram ...@@ -10,6 +10,12 @@ CompiledProgram
CompiledProgram根据 `build_strategy` 的配置将输入的Program或Graph进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等,关于build_strategy更多信息。请参阅 ``fluid.BuildStrategy`` 。 CompiledProgram根据 `build_strategy` 的配置将输入的Program或Graph进行转换和优化,例如:计算图中算子融合、计算图执行过程中开启内存/显存优化等,关于build_strategy更多信息。请参阅 ``fluid.BuildStrategy`` 。
参数: 参数:
......
...@@ -10,6 +10,9 @@ DataFeedDesc ...@@ -10,6 +10,9 @@ DataFeedDesc
描述训练数据的格式。输入是一个文件路径名,其内容是protobuf message。 描述训练数据的格式。输入是一个文件路径名,其内容是protobuf message。
可以参考 :code:`paddle/fluid/framework/data_feed.proto` 查看我们如何定义message 可以参考 :code:`paddle/fluid/framework/data_feed.proto` 查看我们如何定义message
......
...@@ -12,6 +12,9 @@ DataFeeder ...@@ -12,6 +12,9 @@ DataFeeder
``DataFeeder`` 负责将reader(读取器)返回的数据转成一种特殊的数据结构,使它们可以输入到 ``Executor`` 和 ``ParallelExecutor`` 中。 ``DataFeeder`` 负责将reader(读取器)返回的数据转成一种特殊的数据结构,使它们可以输入到 ``Executor`` 和 ``ParallelExecutor`` 中。
reader通常返回一个minibatch条目列表。在列表中每一条目都是一个样本(sample),它是由具有一至多个特征的列表或元组组成的。 reader通常返回一个minibatch条目列表。在列表中每一条目都是一个样本(sample),它是由具有一至多个特征的列表或元组组成的。
......
...@@ -10,6 +10,9 @@ ExecutionStrategy ...@@ -10,6 +10,9 @@ ExecutionStrategy
通过设置 ``ExecutionStrategy`` 中的选项,用户可以对执行器的执行配置进行调整,比如设置执行器中线程池的大小等。 通过设置 ``ExecutionStrategy`` 中的选项,用户可以对执行器的执行配置进行调整,比如设置执行器中线程池的大小等。
返回:初始化后的ExecutionStrategy的实例 返回:初始化后的ExecutionStrategy的实例
......
...@@ -11,6 +11,9 @@ Executor ...@@ -11,6 +11,9 @@ Executor
Executor支持单GPU、多GPU以及CPU运行。 Executor支持单GPU、多GPU以及CPU运行。
参数: 参数:
......
...@@ -10,6 +10,12 @@ ParallelExecutor ...@@ -10,6 +10,12 @@ ParallelExecutor
``ParallelExecutor`` 是 ``Executor`` 的一个升级版本,可以支持基于数据并行的多节点模型训练和测试。如果采用数据并行模式, ``ParallelExecutor`` 在构造时会将参数分发到不同的节点上,并将输入的 ``Program`` 拷贝到不同的节点,在执行过程中,各个节点独立运行模型,将模型反向计算得到的参数梯度在多个节点之间进行聚合,之后各个节点独立的进行参数的更新。如果使用GPU运行模型,即 ``use_cuda=True`` ,节点指代GPU, ``ParallelExecutor`` 将自动获取在当前机器上可用的GPU资源,用户也可以通过在环境变量设置可用的GPU资源,例如:希望使用GPU0、GPU1计算,export CUDA_VISIBLEDEVICES=0,1;如果在CPU上进行操作,即 ``use_cuda=False`` ,节点指代CPU,**注意:此时需要用户在环境变量中手动添加 CPU_NUM ,并将该值设置为CPU设备的个数,例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1**。 ``ParallelExecutor`` 是 ``Executor`` 的一个升级版本,可以支持基于数据并行的多节点模型训练和测试。如果采用数据并行模式, ``ParallelExecutor`` 在构造时会将参数分发到不同的节点上,并将输入的 ``Program`` 拷贝到不同的节点,在执行过程中,各个节点独立运行模型,将模型反向计算得到的参数梯度在多个节点之间进行聚合,之后各个节点独立的进行参数的更新。如果使用GPU运行模型,即 ``use_cuda=True`` ,节点指代GPU, ``ParallelExecutor`` 将自动获取在当前机器上可用的GPU资源,用户也可以通过在环境变量设置可用的GPU资源,例如:希望使用GPU0、GPU1计算,export CUDA_VISIBLEDEVICES=0,1;如果在CPU上进行操作,即 ``use_cuda=False`` ,节点指代CPU,**注意:此时需要用户在环境变量中手动添加 CPU_NUM ,并将该值设置为CPU设备的个数,例如:export CPU_NUM=4,如果没有设置该环境变量,执行器会在环境变量中添加该变量,并将其值设为1**。
参数: 参数:
......
...@@ -7,6 +7,12 @@ ParamAttr ...@@ -7,6 +7,12 @@ ParamAttr
.. py:class:: paddle.fluid.ParamAttr(name=None, initializer=None, learning_rate=1.0, regularizer=None, trainable=True, do_model_average=False) .. py:class:: paddle.fluid.ParamAttr(name=None, initializer=None, learning_rate=1.0, regularizer=None, trainable=True, do_model_average=False)
:alias_main: paddle.ParamAttr
:alias: paddle.ParamAttr,paddle.framework.ParamAttr
:old_api: paddle.fluid.param_attr.ParamAttr
......
...@@ -5,6 +5,12 @@ Program ...@@ -5,6 +5,12 @@ Program
.. py:class:: paddle.fluid.Program .. py:class:: paddle.fluid.Program
:alias_main: paddle.Program
:alias: paddle.Program,paddle.framework.Program
:old_api: paddle.fluid.framework.Program
......
...@@ -5,6 +5,12 @@ Variable ...@@ -5,6 +5,12 @@ Variable
.. py:class:: paddle.fluid.Variable .. py:class:: paddle.fluid.Variable
:alias_main: paddle.Variable
:alias: paddle.Variable,paddle.framework.Variable
:old_api: paddle.fluid.framework.Variable
......
...@@ -10,6 +10,12 @@ WeightNormParamAttr ...@@ -10,6 +10,12 @@ WeightNormParamAttr
.. note:: .. note::
该类中的 ``gradient_clip`` 属性在2.0版本会废弃,推荐在初始化 ``optimizer`` 时设置梯度裁剪。共有三种裁剪策略: :ref:`cn_api_fluid_clip_GradientClipByGlobalNorm` 、 该类中的 ``gradient_clip`` 属性在2.0版本会废弃,推荐在初始化 ``optimizer`` 时设置梯度裁剪。共有三种裁剪策略: :ref:`cn_api_fluid_clip_GradientClipByGlobalNorm` 、
:ref:`cn_api_fluid_clip_GradientClipByNorm` 、 :ref:`cn_api_fluid_clip_GradientClipByValue` 。 :ref:`cn_api_fluid_clip_GradientClipByNorm` 、 :ref:`cn_api_fluid_clip_GradientClipByValue` 。
......
...@@ -11,6 +11,9 @@ create_random_int_lodtensor ...@@ -11,6 +11,9 @@ create_random_int_lodtensor
创建一个包含随机整数的LoDTensor。 创建一个包含随机整数的LoDTensor。
具体实现方法如下: 具体实现方法如下:
......
...@@ -13,6 +13,9 @@ data ...@@ -13,6 +13,9 @@ data
该OP会在全局block中创建变量(Variable),该全局变量可被计算图中的算子(operator)访问。该变量可作为占位符用于数据输入。例如用执行器(Executor)feed数据进该变量 该OP会在全局block中创建变量(Variable),该全局变量可被计算图中的算子(operator)访问。该变量可作为占位符用于数据输入。例如用执行器(Executor)feed数据进该变量
注意: 注意:
......
...@@ -5,6 +5,12 @@ default_main_program ...@@ -5,6 +5,12 @@ default_main_program
.. py:function:: paddle.fluid.default_main_program() .. py:function:: paddle.fluid.default_main_program()
:alias_main: paddle.default_main_program
:alias: paddle.default_main_program,paddle.framework.default_main_program
:old_api: paddle.fluid.framework.default_main_program
......
...@@ -8,6 +8,12 @@ default_startup_program ...@@ -8,6 +8,12 @@ default_startup_program
.. py:function:: paddle.fluid.default_startup_program() .. py:function:: paddle.fluid.default_startup_program()
:alias_main: paddle.default_startup_program
:alias: paddle.default_startup_program,paddle.framework.default_startup_program
:old_api: paddle.fluid.framework.default_startup_program
......
...@@ -5,6 +5,12 @@ disable_dygraph ...@@ -5,6 +5,12 @@ disable_dygraph
.. py:function:: paddle.fluid.disable_dygraph() .. py:function:: paddle.fluid.disable_dygraph()
:alias_main: paddle.disable_imperative
:alias: paddle.disable_imperative
:old_api: .fluid.dygraph.base.disable_dygraph
该接口关闭动态图模式。 该接口关闭动态图模式。
返回:无 返回:无
......
...@@ -10,6 +10,12 @@ embedding ...@@ -10,6 +10,12 @@ embedding
该OP根据input中的id信息从embedding矩阵中查询对应embedding信息,函数会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。 该OP根据input中的id信息从embedding矩阵中查询对应embedding信息,函数会根据输入的size (vocab_size, emb_size)和dtype自动构造一个二维embedding矩阵。
输出的Tensor的shape是在输入Tensor shape的最后一维后面添加了emb_size的维度。 输出的Tensor的shape是在输入Tensor shape的最后一维后面添加了emb_size的维度。
......
...@@ -5,6 +5,12 @@ enable_dygraph ...@@ -5,6 +5,12 @@ enable_dygraph
.. py:function:: paddle.fluid.enable_dygraph(place=None) .. py:function:: paddle.fluid.enable_dygraph(place=None)
:alias_main: paddle.enable_imperative
:alias: paddle.enable_imperative
:old_api: .fluid.dygraph.base.enable_dygraph
该接口打开动态图模式。 该接口打开动态图模式。
参数: 参数:
......
...@@ -10,6 +10,9 @@ global_scope ...@@ -10,6 +10,9 @@ global_scope
获取全局/默认作用域实例。很多API使用默认 ``global_scope`` ,例如 ``Executor.run`` 等。 获取全局/默认作用域实例。很多API使用默认 ``global_scope`` ,例如 ``Executor.run`` 等。
返回:全局/默认作用域实例 返回:全局/默认作用域实例
......
...@@ -10,6 +10,9 @@ gradients ...@@ -10,6 +10,9 @@ gradients
将目标梯度反向传播到输入。 将目标梯度反向传播到输入。
参数: 参数:
......
...@@ -5,6 +5,12 @@ in_dygraph_mode ...@@ -5,6 +5,12 @@ in_dygraph_mode
.. py:function:: paddle.fluid.in_dygraph_mode() .. py:function:: paddle.fluid.in_dygraph_mode()
:alias_main: paddle.in_imperative_mode
:alias: paddle.in_imperative_mode
:old_api: .fluid.framework.in_dygraph_mode
......
...@@ -9,6 +9,9 @@ load ...@@ -9,6 +9,9 @@ load
该接口从Program中过滤出参数和优化器信息,然后从文件中获取相应的值。 该接口从Program中过滤出参数和优化器信息,然后从文件中获取相应的值。
如果Program和加载的文件之间参数的维度或数据类型不匹配,将引发异常。 如果Program和加载的文件之间参数的维度或数据类型不匹配,将引发异常。
......
...@@ -9,6 +9,9 @@ load_op_library ...@@ -9,6 +9,9 @@ load_op_library
``load_op_library`` 用于自定义C++算子中,用来加载算子动态共享库。加载库后,注册好的算子及其Kernel实现将在PaddlePaddle主进程中可以被调用。 请注意,自定义算子的类型不能与框架中的现有算子类型相同。 ``load_op_library`` 用于自定义C++算子中,用来加载算子动态共享库。加载库后,注册好的算子及其Kernel实现将在PaddlePaddle主进程中可以被调用。 请注意,自定义算子的类型不能与框架中的现有算子类型相同。
参数: 参数:
......
...@@ -10,5 +10,8 @@ memory_optimize ...@@ -10,5 +10,8 @@ memory_optimize
**从1.6版本开始此接口不再推荐使用,请不要在新写的代码中使用它,1.6+版本已默认开启更优的存储优化策略** **从1.6版本开始此接口不再推荐使用,请不要在新写的代码中使用它,1.6+版本已默认开启更优的存储优化策略**
...@@ -11,6 +11,12 @@ name_scope ...@@ -11,6 +11,12 @@ name_scope
该函数为operators生成不同的命名空间。该函数只用于调试和可视化,不建议用在其它方面。 该函数为operators生成不同的命名空间。该函数只用于调试和可视化,不建议用在其它方面。
......
...@@ -11,6 +11,9 @@ one_hot ...@@ -11,6 +11,9 @@ one_hot
该OP将输入(input)中的每个id转换为一个one-hot向量,其长度为 ``depth`` ,该id对应的向量维度上的值为1,其余维度的值为0。 该OP将输入(input)中的每个id转换为一个one-hot向量,其长度为 ``depth`` ,该id对应的向量维度上的值为1,其余维度的值为0。
输出的Tensor(或LoDTensor)的shape是在输入shape的最后一维后面添加了depth的维度。 输出的Tensor(或LoDTensor)的shape是在输入shape的最后一维后面添加了depth的维度。
......
...@@ -10,6 +10,12 @@ program_guard ...@@ -10,6 +10,12 @@ program_guard
该接口应配合使用python的 ``with`` 语句来将 ``with`` block 里的算子和变量添加进指定的全局主程序(main program)和启动程序(startup program)。 该接口应配合使用python的 ``with`` 语句来将 ``with`` block 里的算子和变量添加进指定的全局主程序(main program)和启动程序(startup program)。
``with`` 语句块中的fluid.layers下各接口将在新的main program(主程序)中添加operators(算子)和variables(变量)。 ``with`` 语句块中的fluid.layers下各接口将在新的main program(主程序)中添加operators(算子)和variables(变量)。
......
...@@ -10,4 +10,7 @@ release_memory ...@@ -10,4 +10,7 @@ release_memory
**从1.6版本开始此接口不再推荐使用,请不要在新写的代码中使用它,1.6+版本已默认开启更优的存储优化策略** **从1.6版本开始此接口不再推荐使用,请不要在新写的代码中使用它,1.6+版本已默认开启更优的存储优化策略**
...@@ -7,9 +7,9 @@ save ...@@ -7,9 +7,9 @@ save
.. py:function:: paddle.fluid.save(program, model_path) .. py:function:: paddle.fluid.save(program, model_path)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.save
:alias: paddle.save,paddle.tensor.save,paddle.tensor.io.save
:old_api: paddle.fluid.save
......
...@@ -11,6 +11,9 @@ scope_guard ...@@ -11,6 +11,9 @@ scope_guard
该接口通过 python 的 ``with`` 语句切换作用域(scope)。 该接口通过 python 的 ``with`` 语句切换作用域(scope)。
作用域记录了变量名和变量 ( :ref:`api_guide_Variable` ) 之间的映射关系,类似于编程语言中的大括号。 作用域记录了变量名和变量 ( :ref:`api_guide_Variable` ) 之间的映射关系,类似于编程语言中的大括号。
如果未调用此接口,所有的变量和变量名都会被记录在默认的全局作用域中。 如果未调用此接口,所有的变量和变量名都会被记录在默认的全局作用域中。
......
...@@ -6,7 +6,10 @@ manual_seed ...@@ -6,7 +6,10 @@ manual_seed
.. py:function:: paddle.framework.manual_seed(seed) .. py:function:: paddle.framework.manual_seed(seed)
:alias_main: paddle.manual_seed :alias_main: paddle.manual_seed
:alias: paddle.manual_seed,paddle.framework.random.manual_seed :alias: paddle.manual_seed,paddle.framework.manual_seed,paddle.framework.random.manual_seed
......
...@@ -11,6 +11,9 @@ Bilinear ...@@ -11,6 +11,9 @@ Bilinear
``BilinearInitializer`` 的别名 ``BilinearInitializer`` 的别名
...@@ -11,6 +11,9 @@ Constant ...@@ -11,6 +11,9 @@ Constant
``ConstantInitializer`` 的别名 ``ConstantInitializer`` 的别名
...@@ -11,5 +11,8 @@ MSRA ...@@ -11,5 +11,8 @@ MSRA
``MSRAInitializer`` 的别名 ``MSRAInitializer`` 的别名
...@@ -11,6 +11,9 @@ Normal ...@@ -11,6 +11,9 @@ Normal
``NormalInitializer`` 的别名 ``NormalInitializer`` 的别名
...@@ -11,6 +11,9 @@ TruncatedNormal ...@@ -11,6 +11,9 @@ TruncatedNormal
``TruncatedNormalInitializer`` 的别名 ``TruncatedNormalInitializer`` 的别名
...@@ -11,6 +11,9 @@ Uniform ...@@ -11,6 +11,9 @@ Uniform
``UniformInitializer`` 的别名 ``UniformInitializer`` 的别名
......
...@@ -11,6 +11,9 @@ Xavier ...@@ -11,6 +11,9 @@ Xavier
``XavierInitializer`` 的别名 ``XavierInitializer`` 的别名
......
...@@ -5,6 +5,12 @@ DataLoader ...@@ -5,6 +5,12 @@ DataLoader
.. py:class:: paddle.fluid.io.DataLoader .. py:class:: paddle.fluid.io.DataLoader
:alias_main: paddle.io.DataLoader
:alias: paddle.io.DataLoader
:old_api: paddle.fluid.io.DataLoader
......
...@@ -5,6 +5,12 @@ batch ...@@ -5,6 +5,12 @@ batch
.. py:function:: paddle.fluid.io.batch(reader, batch_size, drop_last=False) .. py:function:: paddle.fluid.io.batch(reader, batch_size, drop_last=False)
:alias_main: paddle.io.batch
:alias: paddle.io.batch
:old_api: paddle.fluid.io.batch
......
...@@ -5,6 +5,11 @@ buffered ...@@ -5,6 +5,11 @@ buffered
.. py:function:: paddle.fluid.io.buffered(reader, size) .. py:function:: paddle.fluid.io.buffered(reader, size)
:alias_main: paddle.io.buffered
:alias: paddle.io.buffered,paddle.io..reader.buffered
......
...@@ -5,6 +5,11 @@ cache ...@@ -5,6 +5,11 @@ cache
.. py:function:: paddle.fluid.io.cache(reader) .. py:function:: paddle.fluid.io.cache(reader)
:alias_main: paddle.io.cache
:alias: paddle.io.cache,paddle.io..reader.cache
......
...@@ -5,6 +5,11 @@ chain ...@@ -5,6 +5,11 @@ chain
.. py:function:: paddle.fluid.io.chain(*readers) .. py:function:: paddle.fluid.io.chain(*readers)
:alias_main: paddle.io.chain
:alias: paddle.io.chain,paddle.io..reader.chain
......
...@@ -5,6 +5,11 @@ compose ...@@ -5,6 +5,11 @@ compose
.. py:function:: paddle.fluid.io.compose(*readers, **kwargs) .. py:function:: paddle.fluid.io.compose(*readers, **kwargs)
:alias_main: paddle.io.compose
:alias: paddle.io.compose,paddle.io..reader.compose
......
...@@ -5,6 +5,11 @@ firstn ...@@ -5,6 +5,11 @@ firstn
.. py:function:: paddle.fluid.io.firstn(reader, n) .. py:function:: paddle.fluid.io.firstn(reader, n)
:alias_main: paddle.io.firstn
:alias: paddle.io.firstn,paddle.io..reader.firstn
......
...@@ -9,6 +9,9 @@ get_program_parameter ...@@ -9,6 +9,9 @@ get_program_parameter
该接口从Program中获取所有参数。 该接口从Program中获取所有参数。
参数: 参数:
......
...@@ -9,6 +9,9 @@ get_program_persistable_vars ...@@ -9,6 +9,9 @@ get_program_persistable_vars
该接口从Program中获取所有persistable的变量。 该接口从Program中获取所有persistable的变量。
参数: 参数:
......
...@@ -7,9 +7,12 @@ load ...@@ -7,9 +7,12 @@ load
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.load :alias_main: paddle.load
:alias: paddle.load,paddle.tensor.load,paddle.tensor.io.load :alias: paddle.load,paddle.io.load,paddle.tensor.load,paddle.tensor.io.load
:old_api: paddle.fluid.io.load :old_api: paddle.fluid.io.load
``fluid.io.load`` 是 :ref:`cn_api_fluid_load` 的别名 ``fluid.io.load`` 是 :ref:`cn_api_fluid_load` 的别名
...@@ -7,6 +7,12 @@ load_inference_model ...@@ -7,6 +7,12 @@ load_inference_model
.. py:function:: paddle.fluid.io.load_inference_model(dirname, executor, model_filename=None, params_filename=None, pserver_endpoints=None) .. py:function:: paddle.fluid.io.load_inference_model(dirname, executor, model_filename=None, params_filename=None, pserver_endpoints=None)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.io.load_inference_model
:alias: paddle.io.load_inference_model
:old_api: paddle.fluid.io.load_inference_model
......
...@@ -10,6 +10,9 @@ load_params ...@@ -10,6 +10,9 @@ load_params
该接口从指定的 ``main_program`` 中筛选出所有模型参数变量,并根据目录 ``dirname`` 或 ``filename`` 提供的参数文件对这些模型参数进行赋值。 该接口从指定的 ``main_program`` 中筛选出所有模型参数变量,并根据目录 ``dirname`` 或 ``filename`` 提供的参数文件对这些模型参数进行赋值。
使用 ``dirname`` 指定模型参数的存储路径。若模型参数变量以分离文件的形式存储在 ``dirname`` 指定的目录下,则设置 ``filename`` 值为None;若所有模型参数存储在一个单独的二进制文件中,则使用 ``filename`` 来指明这个二进制文件。 使用 ``dirname`` 指定模型参数的存储路径。若模型参数变量以分离文件的形式存储在 ``dirname`` 指定的目录下,则设置 ``filename`` 值为None;若所有模型参数存储在一个单独的二进制文件中,则使用 ``filename`` 来指明这个二进制文件。
......
...@@ -10,6 +10,9 @@ load_persistables ...@@ -10,6 +10,9 @@ load_persistables
该接口从给定的 ``main_program`` 中取出所有 ``persistable==True`` 的变量(即持久性变量,详见 :ref:`api_guide_model_save_reader` ),并根据目录 ``dirname`` 或 ``filename`` 提供的参数文件对这些持久性变量进行赋值。 该接口从给定的 ``main_program`` 中取出所有 ``persistable==True`` 的变量(即持久性变量,详见 :ref:`api_guide_model_save_reader` ),并根据目录 ``dirname`` 或 ``filename`` 提供的参数文件对这些持久性变量进行赋值。
使用 ``dirname`` 指定持久性变量的存储路径。若持久性变量以分离文件的形式保存在 ``dirname`` 指定的目录下,则设置 ``filename`` 值为None;若所有持久性变量保存在一个单独的二进制文件中,则使用 ``filename`` 来指明这个二进制文件。 使用 ``dirname`` 指定持久性变量的存储路径。若持久性变量以分离文件的形式保存在 ``dirname`` 指定的目录下,则设置 ``filename`` 值为None;若所有持久性变量保存在一个单独的二进制文件中,则使用 ``filename`` 来指明这个二进制文件。
......
...@@ -6,6 +6,12 @@ load_program_state ...@@ -6,6 +6,12 @@ load_program_state
.. py:function:: paddle.fluid.io.load_program_state(model_path, var_list=None) .. py:function:: paddle.fluid.io.load_program_state(model_path, var_list=None)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.io.load_program_state
:alias: paddle.io.load_program_state
:old_api: paddle.fluid.io.load_program_state
......
...@@ -9,6 +9,9 @@ load_vars ...@@ -9,6 +9,9 @@ load_vars
该接口从文件中加载 ``Program`` 的变量。 该接口从文件中加载 ``Program`` 的变量。
通过 ``vars`` 指定需要加载的变量,或者通过 ``predicate`` 筛选需要加载的变量, ``vars`` 和 ``predicate`` 不能同时为None。 通过 ``vars`` 指定需要加载的变量,或者通过 ``predicate`` 筛选需要加载的变量, ``vars`` 和 ``predicate`` 不能同时为None。
......
...@@ -5,6 +5,11 @@ map_readers ...@@ -5,6 +5,11 @@ map_readers
.. py:function:: paddle.fluid.io.map_readers(func, *readers) .. py:function:: paddle.fluid.io.map_readers(func, *readers)
:alias_main: paddle.io.map_readers
:alias: paddle.io.map_readers,paddle.io..reader.map_readers
......
...@@ -7,6 +7,12 @@ save ...@@ -7,6 +7,12 @@ save
.. py:function:: paddle.fluid.io.save(program, model_path) .. py:function:: paddle.fluid.io.save(program, model_path)
:api_attr: 声明式编程模式(静态图) :api_attr: 声明式编程模式(静态图)
:alias_main: paddle.save
:alias: paddle.save,paddle.io.save,paddle.tensor.save,paddle.tensor.io.save
:old_api: paddle.fluid.io.save
......
此差异已折叠。
此差异已折叠。
此差异已折叠。
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册