提交 612deb27 编写于 作者: Z zq19 提交者: xsrobin

update api_cn of develop (#1105)

* fixed one error of api_cn

* fixed some errors of api_cn

* fixed some errors of api_cn

* fixed two errors.

* fixed two errors

* fixed one error.

* fixed one error

* fixed one error.

* fixed two errors.

* fixed one error.

* fixed two errors

* fixed two links

* synchronize api_cn with the api_en of develop.

* updated develop/api_cn

* update the api_cn of develop

* update api_cn of develop

* fixed some errors

* Delete .DS_Store

* Delete .DS_Store

* Delete .DS_Store

* Delete .DS_Store

* Delete .DS_Store

* fixed some wrong links

* fixed two links

* fixed two links and some error.

* fixed some errors.

* fixed two links

* http://newicafe.baidu.com/issue/DLTP-1771/show?from=page

* http://newicafe.baidu.com/issue/DLTP-1647/show?from=page

* http://newicafe.baidu.com/issue/DLTP-1529/show?from=page

* Update natural_exp_decay_cn.rst

* Update Reader_cn.rst
上级 03a7fcb4
......@@ -203,7 +203,7 @@ multiprocess.queue需要/dev/shm的rw访问权限,某些平台不支持。
.. py:class::paddle.reader.Fake
.. py:class:: paddle.reader.Fake
Fakereader将缓存它读取的第一个数据,并将其输出data_num次。它用于缓存来自真实reader的数据,并将其用于速度测试。
......@@ -254,4 +254,4 @@ Creator包包含一些简单的reader creator,可以在用户Program中使用
路径:recordio文件的路径,可以是字符串或字符串列表。
返回:recordio文件的数据读取器
\ No newline at end of file
返回:recordio文件的数据读取器
......@@ -5,7 +5,7 @@ imdb
IMDB数据集。
本模块的数据集来自 https://aistudio.baidu.com/aistudio/datasetDetail/69 。这个数据集包含了25000条训练用电影评论数据,25000条测试用评论数据,且这些评论带有明显情感倾向。此外,该模块还提供了用于构建词典的API。
此模块将从 http://ai.stanford.edu/%7Eamaas/data/sentiment/aclImdb_v1.tar.gz 下载数据集。这个数据集包含了25000条训练用电影评论数据,25000条测试用评论数据,且这些评论带有明显情感倾向。此外,该模块还提供了用于构建词典的API。
.. py:function:: paddle.dataset.imdb.build_dict(pattern, cutoff)
......
......@@ -9,7 +9,7 @@ conv2d_transpose
该层根据 输入(input)、滤波器(filter)和卷积核膨胀(dilations)、步长(stride)、填充(padding)来计算输出。输入(Input)和输出(Output)为NCHW格式,其中 ``N`` 为batch大小, ``C`` 为通道数(channel),``H`` 为特征高度, ``W`` 为特征宽度。参数(膨胀、步长、填充)分别都包含两个元素。这两个元素分别表示高度和宽度。欲了解卷积转置层细节,请参考下面的说明和 参考文献_ 。如果参数 ``bias_attr`` 和 ``act`` 不为 ``None``,则在卷积的输出中加入偏置,并对最终结果应用相应的激活函数。
.. _参考文献: http://www.matthewzeiler.com/wp-content/uploads/2017/07/cvpr2010.pdf
.. _参考文献: https://arxiv.org/pdf/1603.07285.pdf
输入 :math:`X` 和输出 :math:`Out` 函数关系如下:
......
......@@ -12,7 +12,7 @@ natural_exp_decay
if not staircase:
decayed_learning_rate = learning_rate * exp(- decay_rate * (global_step / decay_steps))
else:
decayed_learning_rate = learning_rate * exp(- decay_rate * (global_step / decay_steps))
decayed_learning_rate = learning_rate * exp(- decay_rate * floor(global_step / decay_steps))
参数:
- **learning_rate** - 标量float32值或变量。是训练过程中的初始学习率。
......
......@@ -39,7 +39,7 @@ yolo_box
- **downsample_ratio** (int) - 从网络输入到YoloBox操作输入的下采样率,因此应依次为第一个,第二个和第三个YoloBox运算设置该值为32,16,8
- **name** (string) - yolo box层的名称。默认None。
返回: 具有形状[N,M,4]的三维张量;框的坐标;以及具有形状[N,M,class_num]的三维张量;框的分类得分;
返回: 具有形状[N,M,4]的三维张量,框的坐标;以及具有形状[N,M,class_num]的三维张量,框的分类得分;
返回类型: 变量(Variable)
......@@ -57,7 +57,7 @@ yolo_box
x = fluid.layers.data(name='x', shape=[255, 13, 13], dtype='float32')
img_size = fluid.layers.data(name='img_size',shape=[2],dtype='int64')
anchors = [10, 13, 16, 30, 33, 23]
loss = fluid.layers.yolo_box(x=x, img_size=img_size, class_num=80, anchors=anchors,
boxes, scores = fluid.layers.yolo_box(x=x, img_size=img_size, class_num=80, anchors=anchors,
conf_thresh=0.01, downsample_ratio=32)
......
......@@ -25,7 +25,7 @@ DetectionMAP
- **background_label** (int) – 背景标签的索引,背景标签将被忽略。如果设置为-1,则所有类别将被考虑,默认为0。
- **overlap_threshold** (float) – 判断真假阳性的阈值,默认为0.5
- **evaluate_difficult** (bool) – 是否考虑 difficult ground truth 进行评价,默认为 True。当 gt_difficult 为 None 时,这个参数不起作用。
- **ap_version** (string) – 平均精度的计算方法,必须是 "integral" 或 "11point"。详情请查看 https://sanchom.wordpress.com/2011/09/01/precision-recall/。 其中,11point为:11-point 插值平均精度。积分: precision-recall曲线的自然积分。
- **ap_version** (string) – 平均精度的计算方法,必须是 "integral" 或 "11point"。详情请查看 https://sanchom.wordpress.com/tag/average-precision/。 其中,11point为:11-point 插值平均精度。积分: precision-recall曲线的自然积分。
**代码示例**
......
......@@ -37,7 +37,7 @@ API详细使用方法参考 :ref:`cn_api_fluid_layers_embedding` ,以下是一
以上参数中:
- :code:`is_sparse` : 反向计算的时候梯度是否为sparse tensor。如果不设置,梯度是一个 `LodTensor <https://github.com/PaddlePaddle/FluidDoc/blob/develop/doc/fluid/user_guides/howto/basic_concept/lod_tensor.html>`_ 。默认为False。
- :code:`is_sparse` : 反向计算的时候梯度是否为sparse tensor。如果不设置,梯度是一个 :ref:`Lod_Tensor <cn_user_guide_lod_tensor>` 。默认为False。
- :code:`is_distributed` : 标志是否是用在分布式的场景下。一般大规模稀疏更新(embedding的第0维维度很大,比如几百万以上)才需要设置。具体可以参考大规模稀疏的API guide :ref:`cn_api_guide_async_training` 。默认为False。
......
......@@ -76,7 +76,7 @@ API Reference 请参考 :ref:`cn_api_fluid_optimizer_DecayedAdagrad`
----------------------
`FtrlOptimizer <https://www.eecs.tufts.edu/~dsculley/papers/ad-click-prediction.pdf>`_ 优化器结合了 `FOBOS算法 <https://stanford.edu/~jduchi/projects/DuchiSi09b.pdf>`_ 的高精度与 `RDA算法
<http://www1.se.cuhk.edu.hk/~sqma/SEEM5121_Spring2015/dual-averaging.pdf>`_ 的稀疏性,是目前效果非常好的一种 `Online Learning <https://en.wikipedia.org/wiki/Online_machine_learning>`_ 算法。
<http://xueshu.baidu.com/usercenter/paper/show?paperid=101df241a792fe23d79f4ed84a820495>`_ 的稀疏性,是目前效果非常好的一种 `Online Learning <https://en.wikipedia.org/wiki/Online_machine_learning>`_ 算法。
API Reference 请参考 :ref:`cn_api_fluid_optimizer_FtrlOptimizer`
......
......@@ -19,7 +19,7 @@ Program
* :code:`Block` 中的计算由顺序执行、条件选择或者循环执行三种方式组合,构成复杂的计算逻辑;
* :code:`Block` 中包含对计算和计算对象的描述。计算的描述称之为 Operator;计算作用的对象(或者说 Operator 的输入和输出)被统一为 Tensor,在Fluid中,Tensor 用层级为0的 :ref:`Lod_Tensor <cn_user_guide_lod_tensor>` 表示。
* :code:`Block` 中包含对计算和计算对象的描述。计算的描述称之为 Operator;计算作用的对象(或者说 Operator 的输入和输出)被统一为 Tensor,在Fluid中,Tensor 用层级为0的 :ref:`Lod_Tensor <cn_user_guide_lod_tensor>` 表示。
......
......@@ -165,7 +165,7 @@ b=3
#执行计算
outs = exe.run(
feed={'a':x,'b':y},
fetch_list=[a,b,result.name]
fetch_list=[a,b,result.name])
#查看输出结果
print outs
```
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册