Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
db945913
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
db945913
编写于
3月 12, 2019
作者:
H
Hao Wang
提交者:
Cheerego
3月 12, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix data_reader_cn and dataset_cn (#685)
* fix textual content * fix issue
#682
3 3.2 * fix issues in conv
上级
0ea3df96
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
38 addition
and
38 deletion
+38
-38
doc/fluid/api_cn/data/data_reader_cn.rst
doc/fluid/api_cn/data/data_reader_cn.rst
+37
-37
doc/fluid/api_cn/data/dataset_cn.rst
doc/fluid/api_cn/data/dataset_cn.rst
+1
-1
未找到文件。
doc/fluid/api_cn/data/data_reader_cn.rst
浏览文件 @
db945913
...
...
@@ -11,7 +11,7 @@ DataFeeder
.. py:class:: paddle.fluid.data_feeder.DataFeeder(feed_list, place, program=None)
DataFeeder将
读卡器返回的数据转换为可以输入Executor和ParallelExecutor的数据结构。读卡器
通常返回一个小批量数据条目列表。列表中的每个数据条目都是一个样本。每个样本都是具有一个或多个特征的列表或元组。
DataFeeder将
reader返回的数据转换为可以输入Executor和ParallelExecutor的数据结构。reader
通常返回一个小批量数据条目列表。列表中的每个数据条目都是一个样本。每个样本都是具有一个或多个特征的列表或元组。
简单用法如下:
...
...
@@ -42,7 +42,7 @@ DataFeeder将读卡器返回的数据转换为可以输入Executor和ParallelExe
参数:
- **feed_list** (list) – 将输入模型的变量或变量的名称。
- **place** (Place) – place表示将数据输入CPU或GPU,如果要将数据输入GPU,请使用fluid.CUDAPlace(i)(i表示GPU的ID),如果要将数据输入CPU,请使用fluid.CPUPlace()。
- **program** (Program) –将数据输入的Program,如果Program为None,它将使用default_main_program() 。默认值None
.
- **program** (Program) –将数据输入的Program,如果Program为None,它将使用default_main_program() 。默认值None
。
抛出异常: ``ValueError`` – 如果某些变量未在Program中出现
...
...
@@ -81,7 +81,7 @@ DataFeeder将读卡器返回的数据转换为可以输入Executor和ParallelExe
需要多个mini-batches。每个mini-batch都将提前在每个设备上输入。
参数:
- **iterable** (list|tuple) – 输入的数据
- **iterable** (list|tuple) – 输入的数据
。
- **num_places** (int) – 设备编号,默认值为None。
返回: 转换结果
...
...
@@ -96,19 +96,19 @@ DataFeeder将读卡器返回的数据转换为可以输入Executor和ParallelExe
.. py:method:: decorate_reader(reader, multi_devices, num_places=None, drop_last=True)
将输入数据转换成
读卡器返回的多个mini-batches。每个mini-batch
将输入数据转换成
reader返回的多个mini-batches。每个mini-batch分别送入各设备中。
参数:
- **reader** (function) – reader是可以生成数据的函数
- **multi_devices** (bool) – 是否用多个设备
- **reader** (function) – reader是可以生成数据的函数
。
- **multi_devices** (bool) – 是否用多个设备
。
- **num_places** (int) – 如果multi_devices是True, 你可以指定GPU的使用数量, 如果multi_devices是None, 会使用当前机器的所有GPU ,默认值None。
- **drop_last** (bool) – 如果最后一个batch的大小小于batch_size,是否删除最后一个batch,默认值True。
- **drop_last** (bool) – 如果最后一个batch的大小小于batch_size,
选择
是否删除最后一个batch,默认值True。
返回: 转换结果
返回类型: dict
引起异常: ValueError – 如果drop_last为False并且数据批不适合设备
。
抛出异常: ``ValueError`` – 如果drop_last为False并且数据batch和设备数目不匹配
。
.. _cn_api_paddle_data_reader_reader:
...
...
@@ -120,14 +120,14 @@ Reader
- reader是一个读取数据(从文件、网络、随机数生成器等)并生成数据项的函数。
- reader creator是返回reader函数的函数。
- reader decorator是一个函数,它接受一个或多个
读卡器,并返回一个读卡器
。
- batch reader是一个函数,它读取数据(从
读卡器
、文件、网络、随机数生成器等)并生成一批数据项。
- reader decorator是一个函数,它接受一个或多个
reader,并返回一个reader
。
- batch reader是一个函数,它读取数据(从
reader
、文件、网络、随机数生成器等)并生成一批数据项。
Data Reader Interface
------------------------------------
的确,
数据阅读器
不必是读取和生成数据项的函数,它可以是任何不带参数的函数来创建一个iterable(任何东西都可以被用于 ``for x in iterable`` ):
的确,
data reader
不必是读取和生成数据项的函数,它可以是任何不带参数的函数来创建一个iterable(任何东西都可以被用于 ``for x in iterable`` ):
.. code-block:: python
...
...
@@ -163,7 +163,7 @@ Data Reader Interface
参数:
- **func** - 使用的函数. 函数类型应为(Sample) => Sample
- **readers** - 其输出将用作func参数的
读卡器
。
- **readers** - 其输出将用作func参数的
reader
。
类型:callable
...
...
@@ -176,7 +176,7 @@ Data Reader Interface
创建缓冲数据读取器。
缓冲数据
读卡器
将读取数据条目并将其保存到缓冲区中。只要缓冲区不为空,就将继续从缓冲数据读取器读取数据。
缓冲数据
reader
将读取数据条目并将其保存到缓冲区中。只要缓冲区不为空,就将继续从缓冲数据读取器读取数据。
参数:
- **reader** (callable) - 要读取的数据读取器
...
...
@@ -188,28 +188,28 @@ Data Reader Interface
.. py:function:: paddle.reader.compose(*readers, **kwargs)
创建一个数据
读卡器,其输出是输入读卡器
的组合。
创建一个数据
reader,其输出是输入reader
的组合。
如果输入
读卡器输出以下数据项:(1,2)3(4,5),则组合读卡器将输出:(1,2,3,4,5)
如果输入
reader输出以下数据项:(1,2)3(4,5),则组合reader将输出:(1,2,3,4,5)。
参数:
- **readers** - 将被组合的多个读取器
- **check_alignment** (bool) - 如果为True,将检查输入
读卡器
是否正确对齐。如果为False,将不检查对齐,将丢弃跟踪输出。默认值True。
- **readers** - 将被组合的多个读取器
。
- **check_alignment** (bool) - 如果为True,将检查输入
reader
是否正确对齐。如果为False,将不检查对齐,将丢弃跟踪输出。默认值True。
返回:新的数据读取器
引起异常: ``ComposeNotAligned`` – 读卡器
的输出不一致。 当check_alignment设置为False,不会升高。
抛出异常: ``ComposeNotAligned`` – reader
的输出不一致。 当check_alignment设置为False,不会升高。
.. py:function:: paddle.reader.chain(*readers)
创建一个数据
读卡器,其输出是链接在一起的输入数据读卡器
的输出。
创建一个数据
reader,其输出是链接在一起的输入数据reader
的输出。
如果输入
读卡器输出以下数据条目:[0,0,0][1,1,1][2,2,2],链接读卡器将输出:[0,0,0,1,1,1,2,2,2]
如果输入
reader输出以下数据条目:[0,0,0][1,1,1][2,2,2],链接reader将输出:[0,0,0,1,1,1,2,2,2] 。
参数:
- **readers** – 输入的数据
- **readers** – 输入的数据
。
返回: 新的数据读取器
...
...
@@ -218,15 +218,15 @@ Data Reader Interface
.. py:function:: paddle.reader.shuffle(reader, buf_size)
创建数据读取器,该
阅读器
的数据输出将被无序排列。
创建数据读取器,该
reader
的数据输出将被无序排列。
由原始
读卡器
创建的迭代器的输出将被缓冲到shuffle缓冲区,然后进行打乱。打乱缓冲区的大小由参数buf_size决定。
由原始
reader
创建的迭代器的输出将被缓冲到shuffle缓冲区,然后进行打乱。打乱缓冲区的大小由参数buf_size决定。
参数:
- **reader** (callable) – 输出会被打乱的原始
读卡器
- **reader** (callable) – 输出会被打乱的原始
reader
- **buf_size** (int) – 打乱缓冲器的大小
返回: 输出会被打乱的
读卡器
返回: 输出会被打乱的
reader
返回类型: callable
...
...
@@ -234,13 +234,13 @@ Data Reader Interface
.. py:function:: paddle.reader.firstn(reader, n)
限制
读卡器
可以返回的最大样本数。
限制
reader
可以返回的最大样本数。
参数:
- **reader** (callable) – 要读取的数据读取器
- **n** (int) – 返回的最大样本数
- **reader** (callable) – 要读取的数据读取器
。
- **n** (int) – 返回的最大样本数
。
返回: 装饰
读卡器
返回: 装饰
reader
返回类型: callable
...
...
@@ -294,11 +294,11 @@ rtype: string
.. py:function:: paddle.reader.multiprocess_reader(readers, use_pipe=True, queue_size=1000)
多进程
读卡器使用python多进程从读卡器中读取数据,然后使用multi process.queue或multi process.pipe合并所有数据。进程号等于输入读卡器的编号,每个进程调用一个读卡器
。
多进程
reader使用python多进程从reader中读取数据,然后使用multi process.queue或multi process.pipe合并所有数据。进程号等于输入reader的编号,每个进程调用一个reader
。
multiprocess.queue需要/dev/shm的rw访问权限,某些平台不支持。
您需要首先创建多个
读卡器,这些读卡器
应该相互独立,这样每个进程都可以独立工作。
您需要首先创建多个
reader,这些reader
应该相互独立,这样每个进程都可以独立工作。
**代码示例**
...
...
@@ -314,11 +314,11 @@ multiprocess.queue需要/dev/shm的rw访问权限,某些平台不支持。
.. py:class::paddle.reader.Fake
Fake
读卡器将缓存它读取的第一个数据,并将其输出data_num次。它用于缓存来自真实阅读器
的数据,并将其用于速度测试。
Fake
reader将缓存它读取的第一个数据,并将其输出data_num次。它用于缓存来自真实reader
的数据,并将其用于速度测试。
参数:
- **reader** – 原始读取器
- **data_num** –
读卡器产生数据的次数
- **reader** – 原始读取器
。
- **data_num** –
reader产生数据的次数 。
返回: 一个Fake读取器
...
...
@@ -343,7 +343,7 @@ Creator包包含一些简单的reader creator,可以在用户Program中使用
如果是numpy向量,则创建一个生成x个元素的读取器。或者,如果它是一个numpy矩阵,创建一个生成x行元素的读取器。或由最高维度索引的任何子超平面。
参数:
- **x** – 用于创建
读卡器的numpy数组
- **x** – 用于创建
reader的numpy数组。
返回: 从x创建的数据读取器
...
...
@@ -359,8 +359,8 @@ Creator包包含一些简单的reader creator,可以在用户Program中使用
.. py:function:: paddle.reader.creator.recordio(paths, buf_size=100)
从给定的recordio文件路径创建数据
读卡器
,用“,”分隔“,支持全局模式。
从给定的recordio文件路径创建数据
reader
,用“,”分隔“,支持全局模式。
路径:recordio文件的路径,可以是字符串或字符串列表。
返回: recordio文件的数据读取器
\ No newline at end of file
返回: recordio文件的数据读取器
doc/fluid/api_cn/data/dataset_cn.rst
浏览文件 @
db945913
...
...
@@ -153,7 +153,7 @@ imdb
IMDB数据集。
本模块的数据集从 http://ai.stanford.edu/%7Eamaas/data/sentiment/IMDB 数据集。这个数据集包含了
一组25000个用于训练的极性电影评论数据和25000个用于测试的评论数据
。此外,该模块还提供了用于构建词典的API。
本模块的数据集从 http://ai.stanford.edu/%7Eamaas/data/sentiment/IMDB 数据集。这个数据集包含了
25000条训练用电影评论数据,25000条测试用评论数据,且这些评论带有明显情感倾向
。此外,该模块还提供了用于构建词典的API。
.. py:function:: paddle.dataset.imdb.build_dict(pattern, cutoff)
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录