提交 2036c5e1 编写于 作者: Y Youwei Song 提交者: zhongpu

cherry-pick #1606 use note or warning syntax (#1608)

test=document_fix
上级 54fc5221
...@@ -150,11 +150,8 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__ ...@@ -150,11 +150,8 @@ Layer的全名。组成方式为: ``name_scope`` + “/” + MyLayer.__class__
.. py:method:: load_dict(stat_dict, include_sublayers=True) .. py:method:: load_dict(stat_dict, include_sublayers=True)
.. raw:: html .. warning::
<style> .red {color:red; font-weight:bold} </style> 该函数将被弃用。请使用set_dict函数。
.. role:: red
:red:`注意:该函数将被弃用。请使用set_dict函数。`
根据传入的 ``stat_dict`` 设置参数。 所有参数将由 ``stat_dict`` 中的 ``Tensor`` 设置。 根据传入的 ``stat_dict`` 设置参数。 所有参数将由 ``stat_dict`` 中的 ``Tensor`` 设置。
......
...@@ -5,7 +5,8 @@ CUDAPlace ...@@ -5,7 +5,8 @@ CUDAPlace
.. py:class:: paddle.fluid.CUDAPlace .. py:class:: paddle.fluid.CUDAPlace
<font color="#FF0000">**注意:多卡任务请先使用 FLAGS_selected_gpus 环境变量设置可见的GPU设备,下个版本将会修正 CUDA_VISIBLE_DEVICES 环境变量无效的问题。 **</font> .. note::
多卡任务请先使用 FLAGS_selected_gpus 环境变量设置可见的GPU设备,下个版本将会修正 CUDA_VISIBLE_DEVICES 环境变量无效的问题。
``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 或 ``LoDTensor`` 的 GPU 设备。 ``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 或 ``LoDTensor`` 的 GPU 设备。
每个 ``CUDAPlace`` 有一个 ``dev_id`` (设备id)来表明当前的 ``CUDAPlace`` 所代表的显卡编号,编号从 0 开始。 每个 ``CUDAPlace`` 有一个 ``dev_id`` (设备id)来表明当前的 ``CUDAPlace`` 所代表的显卡编号,编号从 0 开始。
......
...@@ -5,7 +5,8 @@ cuda_places ...@@ -5,7 +5,8 @@ cuda_places
.. py:function:: paddle.fluid.cuda_places(device_ids=None) .. py:function:: paddle.fluid.cuda_places(device_ids=None)
<font color="#FF0000">**注意:多卡任务请先使用 FLAGS_selected_gpus 环境变量设置可见的GPU设备,下个版本将会修正 CUDA_VISIBLE_DEVICES 环境变量无效的问题。 **</font> .. note::
多卡任务请先使用 FLAGS_selected_gpus 环境变量设置可见的GPU设备,下个版本将会修正 CUDA_VISIBLE_DEVICES 环境变量无效的问题。
该接口根据 ``device_ids`` 创建一个或多个 ``fluid.CUDAPlace`` 对象,并返回所创建的对象列表。 该接口根据 ``device_ids`` 创建一个或多个 ``fluid.CUDAPlace`` 对象,并返回所创建的对象列表。
......
...@@ -7,15 +7,9 @@ dynamic_lstm ...@@ -7,15 +7,9 @@ dynamic_lstm
该OP实现了 LSTM,即 Long-Short Term Memory(长短期记忆)运算 - `Hochreiter, S., & Schmidhuber, J. (1997) <http://deeplearning.cs.cmu.edu/pdfs/Hochreiter97_lstm.pdf>`_。 该OP实现了 LSTM,即 Long-Short Term Memory(长短期记忆)运算 - `Hochreiter, S., & Schmidhuber, J. (1997) <http://deeplearning.cs.cmu.edu/pdfs/Hochreiter97_lstm.pdf>`_。
.. raw:: html .. note::
- 该OP仅支持 LoDTensor 作为输入,如果您需要处理的是Tensor,请使用 :ref:`cn_api_fluid_layers_lstm` 。
<style> .red {color:red; font-weight:bold} </style> - 在实现的时候为了提升效率,用户必须将LSTM的输入先进行线性映射,将维度为 [T, hidden_size] 的输入映射为 [T, 4 × hidden_size] 输入,然后再传给该OP。
.. role:: red
:red:`注意:`
- :red:`该OP仅支持 LoDTensor 作为输入,如果您需要处理的是Tensor,请使用` :ref:`cn_api_fluid_layers_lstm` 。
- :red:`在实现的时候为了提升效率,用户必须将LSTM的输入先进行线性映射,将维度为 [T, hidden_size] 的输入映射为 [T, 4 × hidden_size] 输入,然后再传给该OP。`
该OP的默认实现方式为 diagonal/peephole 连接,参见 `Gers, F. A., & Schmidhuber, J. (2000) <ftp://ftp.idsia.ch/pub/juergen/TimeCount-IJCNN2000.pdf>`_。 该OP的默认实现方式为 diagonal/peephole 连接,参见 `Gers, F. A., & Schmidhuber, J. (2000) <ftp://ftp.idsia.ch/pub/juergen/TimeCount-IJCNN2000.pdf>`_。
如果需要禁用 peephole 连接方法,将 use_peepholes 设为 False 即可。 如果需要禁用 peephole 连接方法,将 use_peepholes 设为 False 即可。
......
...@@ -4,13 +4,8 @@ dynamic_lstmp ...@@ -4,13 +4,8 @@ dynamic_lstmp
------------------------------- -------------------------------
.. py:function:: paddle.fluid.layers.dynamic_lstmp(input, size, proj_size, param_attr=None, bias_attr=None, use_peepholes=True, is_reverse=False, gate_activation='sigmoid', cell_activation='tanh', candidate_activation='tanh', proj_activation='tanh', dtype='float32', name=None, h_0=None, c_0=None, cell_clip=None, proj_clip=None) .. py:function:: paddle.fluid.layers.dynamic_lstmp(input, size, proj_size, param_attr=None, bias_attr=None, use_peepholes=True, is_reverse=False, gate_activation='sigmoid', cell_activation='tanh', candidate_activation='tanh', proj_activation='tanh', dtype='float32', name=None, h_0=None, c_0=None, cell_clip=None, proj_clip=None)
.. raw:: html .. note::
在实现的时候为了提升效率,用户必须将输入先进行线性映射,将维度为 [T, hidden_size] 的输入映射为 [T, 4×hidden_size] 输入,然后再传给该OP。
<style> .red {color:red; font-weight:bold} </style>
.. role:: red
:red:`注意:在实现的时候为了提升效率,用户必须将输入先进行线性映射,将维度为 [T, hidden_size] 的输入映射为 [T, 4×hidden_size] 输入,然后再传给该OP。`
该OP实现了LSTMP(LSTM Projected)层。LSTMP层在LSTM层之后有一个单独的的线性映射层。 -- `Sak, H., Senior, A., & Beaufays, F. (2014) <https://ai.google/research/pubs/pub43905.pdf>`_。 该OP实现了LSTMP(LSTM Projected)层。LSTMP层在LSTM层之后有一个单独的的线性映射层。 -- `Sak, H., Senior, A., & Beaufays, F. (2014) <https://ai.google/research/pubs/pub43905.pdf>`_。
......
...@@ -5,13 +5,8 @@ lstm ...@@ -5,13 +5,8 @@ lstm
.. py:function:: paddle.fluid.layers.lstm(input, init_h, init_c, max_len, hidden_size, num_layers, dropout_prob=0.0, is_bidirec=False, is_test=False, name=None, default_initializer=None, seed=-1) .. py:function:: paddle.fluid.layers.lstm(input, init_h, init_c, max_len, hidden_size, num_layers, dropout_prob=0.0, is_bidirec=False, is_test=False, name=None, default_initializer=None, seed=-1)
.. raw:: html .. note::
该OP仅支持 GPU 设备运行
<style> .red {color:red; font-weight:bold} </style>
.. role:: red
:red:`注意:该OP仅支持 GPU 设备运行`
该OP实现了 LSTM,即 Long-Short Term Memory(长短期记忆)运算 - `Hochreiter, S., & Schmidhuber, J. (1997) <http://deeplearning.cs.cmu.edu/pdfs/Hochreiter97_lstm.pdf>`_。 该OP实现了 LSTM,即 Long-Short Term Memory(长短期记忆)运算 - `Hochreiter, S., & Schmidhuber, J. (1997) <http://deeplearning.cs.cmu.edu/pdfs/Hochreiter97_lstm.pdf>`_。
......
.. raw:: html
<style> .red {color:red; font-weight:bold} </style>
.. role:: red
.. _cn_api_fluid_layers_sequence_scatter: .. _cn_api_fluid_layers_sequence_scatter:
sequence_scatter sequence_scatter
...@@ -11,7 +5,8 @@ sequence_scatter ...@@ -11,7 +5,8 @@ sequence_scatter
.. py:function:: paddle.fluid.layers.sequence_scatter(input, index, updates, name=None) .. py:function:: paddle.fluid.layers.sequence_scatter(input, index, updates, name=None)
:red:`注意:该OP的输入index,updates必须是LoDTensor。` .. note::
该OP的输入index,updates必须是LoDTensor。
该OP根据index提供的位置将updates中的信息更新到输出中。 该OP根据index提供的位置将updates中的信息更新到输出中。
......
.. raw:: html
<style> .red {color:red; font-weight:bold} </style>
.. role:: red
.. _cn_api_fluid_layers_sequence_softmax: .. _cn_api_fluid_layers_sequence_softmax:
sequence_softmax sequence_softmax
...@@ -11,7 +5,8 @@ sequence_softmax ...@@ -11,7 +5,8 @@ sequence_softmax
.. py:function:: paddle.fluid.layers.sequence_softmax(input, use_cudnn=False, name=None) .. py:function:: paddle.fluid.layers.sequence_softmax(input, use_cudnn=False, name=None)
:red:`注意:该OP的输入只能是LoDTensor,如果要处理的输入是Tensor类型,请使用` :ref:`cn_api_fluid_layers_softmax` .. note::
该OP的输入只能是LoDTensor,如果要处理的输入是Tensor类型,请使用 :ref:`cn_api_fluid_layers_softmax`
该OP根据LoD信息将输入的第0维度进行划分,在划分的每一个区间内部进行运算。 该OP根据LoD信息将输入的第0维度进行划分,在划分的每一个区间内部进行运算。
......
.. raw:: html
<style> .red {color:red; font-weight:bold} </style>
.. role:: red
.. _cn_api_fluid_layers_sequence_unpad: .. _cn_api_fluid_layers_sequence_unpad:
sequence_unpad sequence_unpad
...@@ -11,7 +5,8 @@ sequence_unpad ...@@ -11,7 +5,8 @@ sequence_unpad
.. py:function:: paddle.fluid.layers.sequence_unpad(x, length, name=None) .. py:function:: paddle.fluid.layers.sequence_unpad(x, length, name=None)
:red:`注意:该OP的输入为Tensor,输出为LoDTensor。该OP用于移除填充元素,与之对应,还存在进行数据填充的OP sequence_pad,详情见:` :ref:`cn_api_fluid_layers_sequence_pad` .. note::
该OP的输入为Tensor,输出为LoDTensor。该OP用于移除填充元素,与之对应,还存在进行数据填充的OP sequence_pad,详情见: :ref:`cn_api_fluid_layers_sequence_pad`
该OP根据length的信息,将input中padding(填充)元素移除,并且返回一个LoDTensor。 该OP根据length的信息,将input中padding(填充)元素移除,并且返回一个LoDTensor。
......
...@@ -9,7 +9,8 @@ sqrt ...@@ -9,7 +9,8 @@ sqrt
.. math:: out=\sqrt x=x^{1/2} .. math:: out=\sqrt x=x^{1/2}
<font color="#FF0000">**注意:请确保输入中的数值是非负数。**</font> .. note::
请确保输入中的数值是非负数。
参数: 参数:
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册