Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
d979176e
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
d979176e
编写于
5月 09, 2020
作者:
S
sunyanfang01
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
modify process
上级
89e2fe77
变更
8
隐藏空白更改
内联
并排
Showing
8 changed file
with
21 addition
and
21 deletion
+21
-21
docs/apis/datasets.md
docs/apis/datasets.md
+7
-7
paddlex/cv/datasets/coco.py
paddlex/cv/datasets/coco.py
+2
-2
paddlex/cv/datasets/easydata_cls.py
paddlex/cv/datasets/easydata_cls.py
+2
-2
paddlex/cv/datasets/easydata_det.py
paddlex/cv/datasets/easydata_det.py
+2
-2
paddlex/cv/datasets/easydata_seg.py
paddlex/cv/datasets/easydata_seg.py
+2
-2
paddlex/cv/datasets/imagenet.py
paddlex/cv/datasets/imagenet.py
+2
-2
paddlex/cv/datasets/seg_dataset.py
paddlex/cv/datasets/seg_dataset.py
+2
-2
paddlex/cv/datasets/voc.py
paddlex/cv/datasets/voc.py
+2
-2
未找到文件。
docs/apis/datasets.md
浏览文件 @
d979176e
...
...
@@ -16,7 +16,7 @@ paddlex.datasets.ImageNet(data_dir, file_list, label_list, transforms=None, num_
> * **transforms** (paddlex.cls.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.cls.transforms](./transforms/cls_transforms.md)。
> * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
## VOCDetection类
...
...
@@ -37,7 +37,7 @@ paddlex.datasets.VOCDetection(data_dir, file_list, label_list, transforms=None,
> * **transforms** (paddlex.det.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.det.transforms](./transforms/det_transforms.md)。
> * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
## CocoDetection类
...
...
@@ -57,7 +57,7 @@ paddlex.datasets.CocoDetection(data_dir, ann_file, transforms=None, num_workers=
> * **transforms** (paddlex.det.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.det.transforms](./transforms/det_transforms.md)。
> * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
## SegDataset类
...
...
@@ -78,7 +78,7 @@ paddlex.datasets.SegDataset(data_dir, file_list, label_list, transforms=None, nu
> * **transforms** (paddlex.seg.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.seg.transforms](./transforms/seg_transforms.md)。
> * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
## EasyDataCls类
...
...
@@ -96,7 +96,7 @@ paddlex.datasets.SegDataset(data_dir, file_list, label_list, transforms=None, nu
> * **transforms** (paddlex.seg.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.cls.transforms](./transforms/cls_transforms.md)。
> * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
## EasyDataDet类
...
...
@@ -116,7 +116,7 @@ paddlex.datasets.EasyDataDet(data_dir, file_list, label_list, transforms=None, n
> * **transforms** (paddlex.det.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.det.transforms](./transforms/det_transforms.md)。
> * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
...
...
@@ -137,5 +137,5 @@ paddlex.datasets.EasyDataSeg(data_dir, file_list, label_list, transforms=None, n
> * **transforms** (paddlex.seg.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.seg.transforms](./transforms/seg_transforms.md)。
> * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
> * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
\ No newline at end of file
paddlex/cv/datasets/coco.py
浏览文件 @
d979176e
...
...
@@ -34,7 +34,7 @@ class CocoDetection(VOCDetection):
系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
"""
...
...
@@ -44,7 +44,7 @@ class CocoDetection(VOCDetection):
transforms
=
None
,
num_workers
=
'auto'
,
buffer_size
=
100
,
parallel_method
=
'
thread
'
,
parallel_method
=
'
process
'
,
shuffle
=
False
):
from
pycocotools.coco
import
COCO
...
...
paddlex/cv/datasets/easydata_cls.py
浏览文件 @
d979176e
...
...
@@ -36,7 +36,7 @@ class EasyDataCls(ImageNet):
数的一半。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
"""
...
...
@@ -47,7 +47,7 @@ class EasyDataCls(ImageNet):
transforms
=
None
,
num_workers
=
'auto'
,
buffer_size
=
100
,
parallel_method
=
'
thread
'
,
parallel_method
=
'
process
'
,
shuffle
=
False
):
super
(
ImageNet
,
self
).
__init__
(
transforms
=
transforms
,
...
...
paddlex/cv/datasets/easydata_det.py
浏览文件 @
d979176e
...
...
@@ -37,7 +37,7 @@ class EasyDataDet(VOCDetection):
一半。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
"""
...
...
@@ -48,7 +48,7 @@ class EasyDataDet(VOCDetection):
transforms
=
None
,
num_workers
=
'auto'
,
buffer_size
=
100
,
parallel_method
=
'
thread
'
,
parallel_method
=
'
process
'
,
shuffle
=
False
):
super
(
VOCDetection
,
self
).
__init__
(
transforms
=
transforms
,
...
...
paddlex/cv/datasets/easydata_seg.py
浏览文件 @
d979176e
...
...
@@ -35,7 +35,7 @@ class EasyDataSeg(Dataset):
num_workers (int): 数据集中样本在预处理过程中的线程或进程数。默认为4。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
"""
...
...
@@ -46,7 +46,7 @@ class EasyDataSeg(Dataset):
transforms
=
None
,
num_workers
=
'auto'
,
buffer_size
=
100
,
parallel_method
=
'
thread
'
,
parallel_method
=
'
process
'
,
shuffle
=
False
):
super
(
EasyDataSeg
,
self
).
__init__
(
transforms
=
transforms
,
...
...
paddlex/cv/datasets/imagenet.py
浏览文件 @
d979176e
...
...
@@ -35,7 +35,7 @@ class ImageNet(Dataset):
数的一半。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
"""
...
...
@@ -46,7 +46,7 @@ class ImageNet(Dataset):
transforms
=
None
,
num_workers
=
'auto'
,
buffer_size
=
100
,
parallel_method
=
'
thread
'
,
parallel_method
=
'
process
'
,
shuffle
=
False
):
super
(
ImageNet
,
self
).
__init__
(
transforms
=
transforms
,
...
...
paddlex/cv/datasets/seg_dataset.py
浏览文件 @
d979176e
...
...
@@ -33,7 +33,7 @@ class SegDataset(Dataset):
num_workers (int): 数据集中样本在预处理过程中的线程或进程数。默认为4。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
"""
...
...
@@ -44,7 +44,7 @@ class SegDataset(Dataset):
transforms
=
None
,
num_workers
=
'auto'
,
buffer_size
=
100
,
parallel_method
=
'
thread
'
,
parallel_method
=
'
process
'
,
shuffle
=
False
):
super
(
SegDataset
,
self
).
__init__
(
transforms
=
transforms
,
...
...
paddlex/cv/datasets/voc.py
浏览文件 @
d979176e
...
...
@@ -37,7 +37,7 @@ class VOCDetection(Dataset):
一半。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'
thread
'(Windows和Mac下会强制使用thread,该参数无效)。
线程和'process'进程两种方式。默认为'
process
'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
"""
...
...
@@ -48,7 +48,7 @@ class VOCDetection(Dataset):
transforms
=
None
,
num_workers
=
'auto'
,
buffer_size
=
100
,
parallel_method
=
'
thread
'
,
parallel_method
=
'
process
'
,
shuffle
=
False
):
from
pycocotools.coco
import
COCO
super
(
VOCDetection
,
self
).
__init__
(
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录