Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
a98dc7bf
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
a98dc7bf
编写于
7月 12, 2020
作者:
F
FlyingQianMM
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
change download links of human_seg
上级
38d983fa
变更
10
显示空白变更内容
内联
并排
Showing
10 changed file
with
149 addition
and
28 deletion
+149
-28
docs/apis/models/classification.md
docs/apis/models/classification.md
+20
-0
docs/apis/models/detection.md
docs/apis/models/detection.md
+37
-0
docs/apis/models/instance_segmentation.md
docs/apis/models/instance_segmentation.md
+18
-0
docs/apis/models/semantic_segmentation.md
docs/apis/models/semantic_segmentation.md
+24
-1
docs/appendix/model_zoo.md
docs/appendix/model_zoo.md
+31
-8
docs/examples/human_segmentation.md
docs/examples/human_segmentation.md
+3
-3
docs/examples/solutions.md
docs/examples/solutions.md
+3
-3
docs/train/instance_segmentation.md
docs/train/instance_segmentation.md
+2
-2
examples/human_segmentation/README.md
examples/human_segmentation/README.md
+3
-3
examples/meter_reader/README.md
examples/meter_reader/README.md
+8
-8
未找到文件。
docs/apis/models/classification.md
浏览文件 @
a98dc7bf
...
@@ -78,6 +78,25 @@ predict(self, img_file, transforms=None, topk=5)
...
@@ -78,6 +78,25 @@ predict(self, img_file, transforms=None, topk=5)
> > - **list**: 其中元素均为字典。字典的关键字为'category_id'、'category'、'score',
> > - **list**: 其中元素均为字典。字典的关键字为'category_id'、'category'、'score',
> > 分别对应预测类别id、预测类别标签、预测得分。
> > 分别对应预测类别id、预测类别标签、预测得分。
### batch_predict
```
python
batch_predict
(
self
,
img_file_list
,
transforms
=
None
,
topk
=
5
)
```
> 分类模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`ResNet50.test_transforms`和`ResNet50.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`predict`接口时,用户需要再重新定义test_transforms传入给`predict`接口。
> **参数**
>
> > - **img_file_list** (list|tuple): 对列表(或元组)中的图像同时进行预测,列表中的元素可以是图像路径或numpy数组(HWC排列,BGR格式)。
> > - **transforms** (paddlex.cls.transforms): 数据预处理操作。
> > - **topk** (int): 预测时前k个最大值。
> **返回值**
>
> > - **list**: 每个元素都为列表,表示各图像的预测结果。在各图像的预测列表中,其中元素均为字典。字典的关键字为'category_id'、'category'、'score',分别对应预测类别id、预测类别标签、预测得分。
## 其它分类模型
## 其它分类模型
PaddleX提供了共计22种分类模型,所有分类模型均提供同
`ResNet50`
相同的训练
`train`
,评估
`evaluate`
和预测
`predict`
接口,各模型效果可参考
[
模型库
](
https://paddlex.readthedocs.io/zh_CN/latest/appendix/model_zoo.html
)
。
PaddleX提供了共计22种分类模型,所有分类模型均提供同
`ResNet50`
相同的训练
`train`
,评估
`evaluate`
和预测
`predict`
接口,各模型效果可参考
[
模型库
](
https://paddlex.readthedocs.io/zh_CN/latest/appendix/model_zoo.html
)
。
...
@@ -106,3 +125,4 @@ PaddleX提供了共计22种分类模型,所有分类模型均提供同`ResNet5
...
@@ -106,3 +125,4 @@ PaddleX提供了共计22种分类模型,所有分类模型均提供同`ResNet5
| DenseNet161 | paddlex.cls.DenseNet161(num_classes=1000) |
| DenseNet161 | paddlex.cls.DenseNet161(num_classes=1000) |
| DenseNet201 | paddlex.cls.DenseNet201(num_classes=1000) |
| DenseNet201 | paddlex.cls.DenseNet201(num_classes=1000) |
| HRNet_W18 | paddlex.cls.HRNet_W18(num_classes=1000) |
| HRNet_W18 | paddlex.cls.HRNet_W18(num_classes=1000) |
| AlexNet | paddlex.cls.AlexNet(num_classes=1000) |
docs/apis/models/detection.md
浏览文件 @
a98dc7bf
...
@@ -95,6 +95,25 @@ predict(self, img_file, transforms=None)
...
@@ -95,6 +95,25 @@ predict(self, img_file, transforms=None)
> > - **list**: 预测结果列表,列表中每个元素均为一个dict,key包括'bbox', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、类别、类别id、置信度,其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。
> > - **list**: 预测结果列表,列表中每个元素均为一个dict,key包括'bbox', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、类别、类别id、置信度,其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。
### batch_predict
```
python
batch_predict
(
self
,
img_file_list
,
transforms
=
None
)
```
> YOLOv3模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`YOLOv3.test_transforms`和`YOLOv3.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`predict`接口时,用户需要再重新定义`test_transforms`传入给`predict`接口
> **参数**
>
> > - **img_file_list** (str|np.ndarray): 对列表(或元组)中的图像同时进行预测,列表中的元素是预测图像路径或numpy数组(HWC排列,BGR格式)。
> > - **transforms** (paddlex.det.transforms): 数据预处理操作。
>
> **返回值**
>
> > - **list**: 每个元素都为列表,表示各图像的预测结果。在各图像的预测结果列表中,每个元素均为一个dict,key包括'bbox', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、类别、类别id、置信度,其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。
## paddlex.det.FasterRCNN
## paddlex.det.FasterRCNN
```
python
```
python
...
@@ -178,3 +197,21 @@ predict(self, img_file, transforms=None)
...
@@ -178,3 +197,21 @@ predict(self, img_file, transforms=None)
> **返回值**
> **返回值**
>
>
> > - **list**: 预测结果列表,列表中每个元素均为一个dict,key包括'bbox', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、类别、类别id、置信度,其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。
> > - **list**: 预测结果列表,列表中每个元素均为一个dict,key包括'bbox', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、类别、类别id、置信度,其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。
### batch_predict
```
python
batch_predict
(
self
,
img_file_list
,
transforms
=
None
)
```
> FasterRCNN模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`FasterRCNN.test_transforms`和`FasterRCNN.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`predict`接口时,用户需要再重新定义test_transforms传入给`predict`接口。
> **参数**
>
> > - **img_file_list** (list|tuple): 对列表(或元组)中的图像同时进行预测,列表中的元素是预测图像路径或numpy数组(HWC排列,BGR格式)。
> > - **transforms** (paddlex.det.transforms): 数据预处理操作。
>
> **返回值**
>
> > - **list**: 每个元素都为列表,表示各图像的预测结果。在各图像的预测结果列表中,每个元素均为一个dict,key包括'bbox', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、类别、类别id、置信度,其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。
docs/apis/models/instance_segmentation.md
浏览文件 @
a98dc7bf
...
@@ -83,3 +83,21 @@ predict(self, img_file, transforms=None)
...
@@ -83,3 +83,21 @@ predict(self, img_file, transforms=None)
> **返回值**
> **返回值**
>
>
> > - **list**: 预测结果列表,列表中每个元素均为一个dict,key'bbox', 'mask', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、Mask信息,类别、类别id、置信度。其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。Mask信息为原图大小的二值图,1表示像素点属于预测类别,0表示像素点是背景。
> > - **list**: 预测结果列表,列表中每个元素均为一个dict,key'bbox', 'mask', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、Mask信息,类别、类别id、置信度。其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。Mask信息为原图大小的二值图,1表示像素点属于预测类别,0表示像素点是背景。
#### batch_predict
```
python
batch_predict
(
self
,
img_file_list
,
transforms
=
None
)
```
> MaskRCNN模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在FasterRCNN.test_transforms和FasterRCNN.eval_transforms中。如未在训练时定义eval_dataset,那在调用预测predict接口时,用户需要再重新定义test_transforms传入给predict接口。
> **参数**
>
> > - **img_file_list** (list|tuple): 对列表(或元组)中的图像同时进行预测,列表中的元素可以是预测图像路径或numpy数组(HWC排列,BGR格式)。
> > - **transforms** (paddlex.det.transforms): 数据预处理操作。
>
> **返回值**
>
> > - **list**: 每个元素都为列表,表示各图像的预测结果。在各图像的预测结果列表中,每个元素均为一个dict,key'bbox', 'mask', 'category', 'category_id', 'score',分别表示每个预测目标的框坐标信息、Mask信息,类别、类别id、置信度。其中框坐标信息为[xmin, ymin, w, h],即左上角x, y坐标和框的宽和高。Mask信息为原图大小的二值图,1表示像素点属于预测类别,0表示像素点是背景。
docs/apis/models/semantic_segmentation.md
浏览文件 @
a98dc7bf
...
@@ -76,7 +76,7 @@ evaluate(self, eval_dataset, batch_size=1, epoch_id=None, return_details=False):
...
@@ -76,7 +76,7 @@ evaluate(self, eval_dataset, batch_size=1, epoch_id=None, return_details=False):
### predict
### predict
```
```
predict(self, im_file, transforms=None):
predict(self, im
g
_file, transforms=None):
```
```
> DeepLabv3p模型预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`DeepLabv3p.test_transforms`和`DeepLabv3p.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`predict`接口时,用户需要再重新定义test_transforms传入给`predict`接口。
> DeepLabv3p模型预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`DeepLabv3p.test_transforms`和`DeepLabv3p.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`predict`接口时,用户需要再重新定义test_transforms传入给`predict`接口。
...
@@ -90,6 +90,26 @@ predict(self, im_file, transforms=None):
...
@@ -90,6 +90,26 @@ predict(self, im_file, transforms=None):
> >
> >
> > - **dict**: 包含关键字'label_map'和'score_map', 'label_map'存储预测结果灰度图,像素值表示对应的类别,'score_map'存储各类别的概率,shape=(h, w, num_classes)。
> > - **dict**: 包含关键字'label_map'和'score_map', 'label_map'存储预测结果灰度图,像素值表示对应的类别,'score_map'存储各类别的概率,shape=(h, w, num_classes)。
### batch_predict
```
batch_predict(self, img_file_list, transforms=None):
```
> DeepLabv3p模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`DeepLabv3p.test_transforms`和`DeepLabv3p.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`predict`接口时,用户需要再重新定义test_transforms传入给`predict`接口。
> **参数**
> >
> > - **img_file_list** (list|tuple): 对列表(或元组)中的图像同时进行预测,列表中的元素可以是预测图像路径或numpy数组(HWC排列,BGR格式)。
> > - **transforms** (paddlex.seg.transforms): 数据预处理操作。
> **返回值**
> >
> > - **dict**: 每个元素都为列表,表示各图像的预测结果。各图像的预测结果用字典表示,包含关键字'label_map'和'score_map', 'label_map'存储预测结果灰度图,像素值表示对应的类别,'score_map'存储各类别的概率,shape=(h, w, num_classes)。
## paddlex.seg.UNet
## paddlex.seg.UNet
```
python
```
python
...
@@ -110,6 +130,7 @@ paddlex.seg.UNet(num_classes=2, upsample_mode='bilinear', use_bce_loss=False, us
...
@@ -110,6 +130,7 @@ paddlex.seg.UNet(num_classes=2, upsample_mode='bilinear', use_bce_loss=False, us
> - train 训练接口说明同 [DeepLabv3p模型train接口](#train)
> - train 训练接口说明同 [DeepLabv3p模型train接口](#train)
> - evaluate 评估接口说明同 [DeepLabv3p模型evaluate接口](#evaluate)
> - evaluate 评估接口说明同 [DeepLabv3p模型evaluate接口](#evaluate)
> - predict 预测接口说明同 [DeepLabv3p模型predict接口](#predict)
> - predict 预测接口说明同 [DeepLabv3p模型predict接口](#predict)
> - batch_predict 批量预测接口说明同 [DeepLabv3p模型predict接口](#batch-predict)
## paddlex.seg.HRNet
## paddlex.seg.HRNet
...
@@ -131,6 +152,7 @@ paddlex.seg.HRNet(num_classes=2, width=18, use_bce_loss=False, use_dice_loss=Fal
...
@@ -131,6 +152,7 @@ paddlex.seg.HRNet(num_classes=2, width=18, use_bce_loss=False, use_dice_loss=Fal
> - train 训练接口说明同 [DeepLabv3p模型train接口](#train)
> - train 训练接口说明同 [DeepLabv3p模型train接口](#train)
> - evaluate 评估接口说明同 [DeepLabv3p模型evaluate接口](#evaluate)
> - evaluate 评估接口说明同 [DeepLabv3p模型evaluate接口](#evaluate)
> - predict 预测接口说明同 [DeepLabv3p模型predict接口](#predict)
> - predict 预测接口说明同 [DeepLabv3p模型predict接口](#predict)
> - batch_predict 批量预测接口说明同 [DeepLabv3p模型predict接口](#batch-predict)
## paddlex.seg.FastSCNN
## paddlex.seg.FastSCNN
...
@@ -152,3 +174,4 @@ paddlex.seg.FastSCNN(num_classes=2, use_bce_loss=False, use_dice_loss=False, cla
...
@@ -152,3 +174,4 @@ paddlex.seg.FastSCNN(num_classes=2, use_bce_loss=False, use_dice_loss=False, cla
> - train 训练接口说明同 [DeepLabv3p模型train接口](#train)
> - train 训练接口说明同 [DeepLabv3p模型train接口](#train)
> - evaluate 评估接口说明同 [DeepLabv3p模型evaluate接口](#evaluate)
> - evaluate 评估接口说明同 [DeepLabv3p模型evaluate接口](#evaluate)
> - predict 预测接口说明同 [DeepLabv3p模型predict接口](#predict)
> - predict 预测接口说明同 [DeepLabv3p模型predict接口](#predict)
> - batch_predict 批量预测接口说明同 [DeepLabv3p模型predict接口](#batch-predict)
docs/appendix/model_zoo.md
浏览文件 @
a98dc7bf
# PaddleX模型库
# PaddleX模型库
## 图像分类模型
## 图像分类模型
> 表中模型相关指标均为在ImageNet数据集上使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla P40),预测速度为每张图片预测用时(不包括预处理和后处理)
,
表中符号`-`表示相关指标暂未测试。
> 表中模型相关指标均为在ImageNet数据集上使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla P40),预测速度为每张图片预测用时(不包括预处理和后处理)
,
表中符号`-`表示相关指标暂未测试。
| 模型 | 模型大小 | 预测速度(毫秒) | Top1准确率(%) | Top5准确率(%) |
| 模型 | 模型大小 | 预测速度(毫秒) | Top1准确率(%) | Top5准确率(%) |
...
@@ -28,10 +28,11 @@
...
@@ -28,10 +28,11 @@
|
[
DenseNet201
](
https://paddle-imagenet-models-name.bj.bcebos.com/DenseNet201_pretrained.tar
)
| 84.1MB | 25.26089 | 77.6 | 93.7 |
|
[
DenseNet201
](
https://paddle-imagenet-models-name.bj.bcebos.com/DenseNet201_pretrained.tar
)
| 84.1MB | 25.26089 | 77.6 | 93.7 |
|
[
ShuffleNetV2
](
https://paddle-imagenet-models-name.bj.bcebos.com/ShuffleNetV2_pretrained.tar
)
| 10.2MB | 15.40138 | 68.8 | 88.5 |
|
[
ShuffleNetV2
](
https://paddle-imagenet-models-name.bj.bcebos.com/ShuffleNetV2_pretrained.tar
)
| 10.2MB | 15.40138 | 68.8 | 88.5 |
|
[
HRNet_W18
](
https://paddle-imagenet-models-name.bj.bcebos.com/HRNet_W18_C_pretrained.tar
)
| 21.29MB |45.25514 | 76.9 | 93.4 |
|
[
HRNet_W18
](
https://paddle-imagenet-models-name.bj.bcebos.com/HRNet_W18_C_pretrained.tar
)
| 21.29MB |45.25514 | 76.9 | 93.4 |
|
[
AlexNet
](
https://paddle-imagenet-models-name.bj.bcebos.com/AlexNet_pretrained.tar
)
| 244.4MB | - | 56.7 | 79.2 |
## 目标检测模型
## 目标检测模型
> 表中模型相关指标均为在MSCOCO数据集上使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla V100测试得到)
,
表中符号`-`表示相关指标暂未测试。
> 表中模型相关指标均为在MSCOCO数据集上使用PaddlePaddle Python预测接口测试得到(测试GPU型号为Nvidia Tesla V100测试得到)
,
表中符号`-`表示相关指标暂未测试。
| 模型 | 模型大小 | 预测时间(毫秒) | BoxAP(%) |
| 模型 | 模型大小 | 预测时间(毫秒) | BoxAP(%) |
|:-------|:-----------|:-------------|:----------|
|:-------|:-----------|:-------------|:----------|
...
@@ -50,12 +51,34 @@
...
@@ -50,12 +51,34 @@
## 实例分割模型
## 实例分割模型
> 表中模型相关指标均为在MSCOCO数据集上测试得到。
> 预测时间是在一张Nvidia Tesla V100的GPU上通过'evaluate()'接口测试MSCOCO验证集得到,包括数据加载、网络前向执行和后处理, batch size是1,表中符号`-`表示相关指标暂未测试。
| 模型 | 模型大小 | 预测时间(毫秒) | BoxAP (%) | MaskAP (%) |
|:-------|:-----------|:-------------|:----------|:----------|
|
[
MaskRCNN-ResNet50
](
https://paddlemodels.bj.bcebos.com/object_detection/mask_rcnn_r50_2x.tar
)
| 143.9MB | 87 | 38.2 | 33.4 |
|
[
MaskRCNN-ResNet50-FPN
](
https://paddlemodels.bj.bcebos.com/object_detection/mask_rcnn_r50_fpn_2x.tar
)
| 177.7MB | 63.9 | 38.7 | 34.7 |
|
[
MaskRCNN-ResNet50_vd-FPN
](
https://paddlemodels.bj.bcebos.com/object_detection/mask_rcnn_r50_vd_fpn_2x.tar
)
| 177.7MB | 63.1 | 39.8 || 35.4 |
|
[
MaskRCNN-ResNet101-FPN
](
https://paddlemodels.bj.bcebos.com/object_detection/mask_rcnn_r101_fpn_1x.tar
)
| 253.6MB | 77 | 39.5 | 35.2 |
|
[
MaskRCNN-ResNet101_vd-FPN
](
https://paddlemodels.bj.bcebos.com/object_detection/mask_rcnn_r101_vd_fpn_1x.tar
)
| 253.7MB | 76.4 | 41.4 | 36.8 |
|
[
MaskRCNN-HRNet_W18-FPN
](
https://bj.bcebos.com/paddlex/pretrained_weights/mask_rcnn_hrnetv2p_w18_2x.tar
)
| 120.7MB | - | 38.7 | 34.7 |
## 语义分割模型
> 以下指标均在MSCOCO验证集上测试得到,表中符号`-`表示相关指标暂未测试。
| 模型 | 模型大小 | 预测时间(毫秒) | mIoU(%) |
|:-------|:-----------|:-------------|:----------|
|
[
DeepLabv3_MobileNetV2_x1.0
](
https://bj.bcebos.com/v1/paddleseg/deeplab_mobilenet_x1_0_coco.tgz
)
| 14.7MB | - | - |
|
[
DeepLabv3_Xception65
](
https://paddleseg.bj.bcebos.com/models/xception65_coco.tgz
)
| 329.3MB | - | - |
|
[
UNet
](
https://paddleseg.bj.bcebos.com/models/unet_coco_v3.tgz
)
| 107.3MB | - | - |
> 以下指标均在Cityscapes验证集上测试得到,表中符号`-`表示相关指标暂未测试。
| 模型 | 模型大小 | 预测时间(毫秒) | mIoU(%) |
| 模型 | 模型大小 | 预测时间(毫秒) | mIoU(%) |
|:-------|:-----------|:-------------|:----------|
|:-------|:-----------|:-------------|:----------|
|DeepLabv3+-MobileNetV2_x1.0|-| - | - |
|
[
DeepLabv3_MobileNetv2_x1.0
](
https://paddleseg.bj.bcebos.com/models/mobilenet_cityscapes.tgz
)
| 14.7MB | - | 69.8 |
|DeepLabv3+-Xception41|-| - | - |
|
[
DeepLabv3_Xception65
](
https://paddleseg.bj.bcebos.com/models/xception65_bn_cityscapes.tgz
)
| 329.3MB | - | 79.3 |
|DeepLabv3+-Xception65|-| - | - |
|
[
HRNet_W18
](
https://paddleseg.bj.bcebos.com/models/hrnet_w18_bn_cityscapes.tgz
)
| 77.3MB | | 79.36 |
|UNet|-| - | - |
|
[
Fast-SCNN
](
https://paddleseg.bj.bcebos.com/models/fast_scnn_cityscape.tar
)
| 9.8MB | | 69.64 |
|HRNet_w18|-| - | - |
docs/examples/human_segmentation.md
浏览文件 @
a98dc7bf
...
@@ -10,10 +10,10 @@
...
@@ -10,10 +10,10 @@
| 模型类型 | Checkpoint Parameter | Inference Model | Quant Inference Model | 备注 |
| 模型类型 | Checkpoint Parameter | Inference Model | Quant Inference Model | 备注 |
| --- | --- | --- | ---| --- |
| --- | --- | --- | ---| --- |
| HumanSeg-server |
[
humanseg_server_params
](
https://
paddlex.bj.bcebos.com/humanseg/models/humanseg_server.pdparams
)
|
[
humanseg_server_inference
](
https://paddlex.bj.bcebos.com/humanseg/models/humanseg_server_inference.zip
)
| -- | 高精度模型,适用于服务端GPU且背景复杂的人像场景, 模型结构为Deeplabv3+/Xcetion65, 输入大小(512, 512) |
| HumanSeg-server |
[
humanseg_server_params
](
https://
bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_server_params.tar
)
|
[
humanseg_server_inference
](
https://bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_server_inference.tar
)
| -- | 高精度模型,适用于服务端GPU且背景复杂的人像场景, 模型结构为Deeplabv3+/Xcetion65, 输入大小(512, 512) |
| HumanSeg-mobile |
[
humanseg_mobile_params
](
https://
paddlex.bj.bcebos.com/humanseg/models/humanseg_mobile.pdparams
)
|
[
humanseg_mobile_inference
](
https://paddlex.bj.bcebos.com/humanseg/models/humanseg_mobile_inference.zip
)
|
[
humanseg_mobile_quant
](
https://paddlex.bj.bcebos.com/humanseg/models/humanseg_mobile_quant.zip
)
| 轻量级模型, 适用于移动端或服务端CPU的前置摄像头场景,模型结构为HRNet_w18_small_v1,输入大小(192, 192) |
| HumanSeg-mobile |
[
humanseg_mobile_params
](
https://
bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_mobile_params.tar
)
|
[
humanseg_mobile_inference
](
https://bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_mobile_inference.tar
)
|
[
humanseg_mobile_quant
](
https://bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_mobile_quant.tar
)
| 轻量级模型, 适用于移动端或服务端CPU的前置摄像头场景,模型结构为HRNet_w18_small_v1,输入大小(192, 192) |
> * Checkpoint Parameter为模型权重,用于Fine-tuning场景。
> * Checkpoint Parameter为模型权重,用于Fine-tuning场景
,包含`__params__`模型参数和`model.yaml`基础的模型配置信息
。
> * Inference Model和Quant Inference Model为预测部署模型,包含`__model__`计算图结构、`__params__`模型参数和`model.yaml`基础的模型配置信息。
> * Inference Model和Quant Inference Model为预测部署模型,包含`__model__`计算图结构、`__params__`模型参数和`model.yaml`基础的模型配置信息。
> * 其中Inference Model适用于服务端的CPU和GPU预测部署,Qunat Inference Model为量化版本,适用于通过Paddle Lite进行移动端等端侧设备部署。
> * 其中Inference Model适用于服务端的CPU和GPU预测部署,Qunat Inference Model为量化版本,适用于通过Paddle Lite进行移动端等端侧设备部署。
...
...
docs/examples/solutions.md
浏览文件 @
a98dc7bf
...
@@ -61,9 +61,9 @@ PaddleX目前提供了实例分割MaskRCNN模型,支持5种不同的backbone
...
@@ -61,9 +61,9 @@ PaddleX目前提供了实例分割MaskRCNN模型,支持5种不同的backbone
| 模型 | 模型特点 | 存储体积 | GPU预测速度 | CPU(x86)预测速度(毫秒) | 骁龙855(ARM)预测速度 (毫秒)| Box mmAP | Seg mmAP |
| 模型 | 模型特点 | 存储体积 | GPU预测速度 | CPU(x86)预测速度(毫秒) | 骁龙855(ARM)预测速度 (毫秒)| Box mmAP | Seg mmAP |
| :---- | :------- | :---------- | :---------- | :----- | :----- | :--- |:--- |
| :---- | :------- | :---------- | :---------- | :----- | :----- | :--- |:--- |
| MaskRCNN-HRNet_W18-FPN | 适用于对图像分辨率较为敏感、对目标细节预测要求更高的服务器端场景 |
- | - | - | - | 37.0
| 33.4 |
| MaskRCNN-HRNet_W18-FPN | 适用于对图像分辨率较为敏感、对目标细节预测要求更高的服务器端场景 |
143.9MB | - | - | - | 38.2
| 33.4 |
| MaskRCNN-ResNet50-FPN | 精度较高,适合大多数的服务器端场景| 1
85.5M | - | - | - | 37.9 | 34.2
|
| MaskRCNN-ResNet50-FPN | 精度较高,适合大多数的服务器端场景| 1
77.7M | - | - | - | 38.7 | 34.7
|
| MaskRCNN-ResNet101_vd-FPN | 高精度但预测时间更长,在处理较大数据量时有较高的精度,适用于服务器端场景 | 2
68.6
M | - | - | - | 41.4 | 36.8 |
| MaskRCNN-ResNet101_vd-FPN | 高精度但预测时间更长,在处理较大数据量时有较高的精度,适用于服务器端场景 | 2
53.7
M | - | - | - | 41.4 | 36.8 |
## 语义分割
## 语义分割
语义分割用于对图像做像素级的分类,应用在人像分类、遥感图像识别等场景。
语义分割用于对图像做像素级的分类,应用在人像分类、遥感图像识别等场景。
...
...
docs/train/instance_segmentation.md
浏览文件 @
a98dc7bf
...
@@ -10,9 +10,9 @@ PaddleX目前提供了MaskRCNN实例分割模型结构,多种backbone模型,
...
@@ -10,9 +10,9 @@ PaddleX目前提供了MaskRCNN实例分割模型结构,多种backbone模型,
| 模型(点击获取代码) | Box MMAP/Seg MMAP | 模型大小 | GPU预测速度 | Arm预测速度 | 备注 |
| 模型(点击获取代码) | Box MMAP/Seg MMAP | 模型大小 | GPU预测速度 | Arm预测速度 | 备注 |
| :---------------- | :------- | :------- | :--------- | :--------- | :----- |
| :---------------- | :------- | :------- | :--------- | :--------- | :----- |
|
[
MaskRCNN-ResNet50-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/doc/tutorials/train/instance_segmentation/mask_r50_fpn.py
)
| 3
6.5%/32.2% | 170.0
MB | 160.185ms | - | 模型精度高,适用于服务端部署 |
|
[
MaskRCNN-ResNet50-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/doc/tutorials/train/instance_segmentation/mask_r50_fpn.py
)
| 3
8.7%/34.7% | 177.7
MB | 160.185ms | - | 模型精度高,适用于服务端部署 |
|
[
MaskRCNN-ResNet18-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/doc/tutorials/train/instance_segmentation/mask_r18_fpn.py
)
| -/- | 120.0MB | - | - | 模型精度高,适用于服务端部署 |
|
[
MaskRCNN-ResNet18-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/doc/tutorials/train/instance_segmentation/mask_r18_fpn.py
)
| -/- | 120.0MB | - | - | 模型精度高,适用于服务端部署 |
|
[
MaskRCNN-HRNet-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/doc/tutorials/train/instance_segmentation/mask_hrnet_fpn.py
)
|
-/- | 116.
MB | - | - | 模型精度高,预测速度快,适用于服务端部署 |
|
[
MaskRCNN-HRNet-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/doc/tutorials/train/instance_segmentation/mask_hrnet_fpn.py
)
|
38.7%/34.7% | 120.7
MB | - | - | 模型精度高,预测速度快,适用于服务端部署 |
## 开始训练
## 开始训练
...
...
examples/human_segmentation/README.md
浏览文件 @
a98dc7bf
...
@@ -18,10 +18,10 @@
...
@@ -18,10 +18,10 @@
| 模型类型 | Checkpoint Parameter | Inference Model | Quant Inference Model | 备注 |
| 模型类型 | Checkpoint Parameter | Inference Model | Quant Inference Model | 备注 |
| --- | --- | --- | ---| --- |
| --- | --- | --- | ---| --- |
| HumanSeg-server |
[
humanseg_server_params
](
https://
paddlex.bj.bcebos.com/humanseg/models/humanseg_server.pdparams
)
|
[
humanseg_server_inference
](
https://paddlex.bj.bcebos.com/humanseg/models/humanseg_server_inference.zip
)
| -- | 高精度模型,适用于服务端GPU且背景复杂的人像场景, 模型结构为Deeplabv3+/Xcetion65, 输入大小(512, 512) |
| HumanSeg-server |
[
humanseg_server_params
](
https://
bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_server_params.tar
)
|
[
humanseg_server_inference
](
https://bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_server_inference.tar
)
| -- | 高精度模型,适用于服务端GPU且背景复杂的人像场景, 模型结构为Deeplabv3+/Xcetion65, 输入大小(512, 512) |
| HumanSeg-mobile |
[
humanseg_mobile_params
](
https://
paddlex.bj.bcebos.com/humanseg/models/humanseg_mobile.pdparams
)
|
[
humanseg_mobile_inference
](
https://paddlex.bj.bcebos.com/humanseg/models/humanseg_mobile_inference.zip
)
|
[
humanseg_mobile_quant
](
https://paddlex.bj.bcebos.com/humanseg/models/humanseg_mobile_quant.zip
)
| 轻量级模型, 适用于移动端或服务端CPU的前置摄像头场景,模型结构为HRNet_w18_small_v1,输入大小(192, 192) |
| HumanSeg-mobile |
[
humanseg_mobile_params
](
https://
bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_mobile_params.tar
)
|
[
humanseg_mobile_inference
](
https://bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_mobile_inference.tar
)
|
[
humanseg_mobile_quant
](
https://bj.bcebos.com/paddlex/examples/human_seg/models/humanseg_mobile_quant.tar
)
| 轻量级模型, 适用于移动端或服务端CPU的前置摄像头场景,模型结构为HRNet_w18_small_v1,输入大小(192, 192) |
> * Checkpoint Parameter为模型权重,用于Fine-tuning场景。
> * Checkpoint Parameter为模型权重,用于Fine-tuning场景
,包含`__params__`模型参数和`model.yaml`基础的模型配置信息
。
> * Inference Model和Quant Inference Model为预测部署模型,包含`__model__`计算图结构、`__params__`模型参数和`model.yaml`基础的模型配置信息。
> * Inference Model和Quant Inference Model为预测部署模型,包含`__model__`计算图结构、`__params__`模型参数和`model.yaml`基础的模型配置信息。
> * 其中Inference Model适用于服务端的CPU和GPU预测部署,Qunat Inference Model为量化版本,适用于通过Paddle Lite进行移动端等端侧设备部署。
> * 其中Inference Model适用于服务端的CPU和GPU预测部署,Qunat Inference Model为量化版本,适用于通过Paddle Lite进行移动端等端侧设备部署。
...
...
examples/meter_reader/README.md
浏览文件 @
a98dc7bf
# MeterReader表计读数
# MeterReader
工业
表计读数
本案例基于PaddleX实现对传统机械式指针表计的检测与自动读数功能,开放表计数据和预训练模型,并提供在windows系统的服务器端以及linux系统的jetson嵌入式设备上的部署指南。
本案例基于PaddleX实现对传统机械式指针表计的检测与自动读数功能,开放表计数据和预训练模型,并提供在windows系统的服务器端以及linux系统的jetson嵌入式设备上的部署指南。
...
@@ -16,7 +16,7 @@
...
@@ -16,7 +16,7 @@
表计读数共分为三个步骤完成:
表计读数共分为三个步骤完成:
*
第一步,使用目标检测模型检测出图像中的表计
*
第一步,使用目标检测模型检测出图像中的表计
*
第二步,使用语义分割模型将各表
具
的指针和刻度分割出来
*
第二步,使用语义分割模型将各表
计
的指针和刻度分割出来
*
第三步,根据指针的相对位置和预知的量程计算出各表计的读数。
*
第三步,根据指针的相对位置和预知的量程计算出各表计的读数。
![
MeterReader_Architecture
](
image/MeterReader_Architecture.jpg
)
![
MeterReader_Architecture
](
image/MeterReader_Architecture.jpg
)
...
@@ -51,7 +51,7 @@
...
@@ -51,7 +51,7 @@
*
Python >= 3.5
*
Python >= 3.5
*
PaddleX >= 1.0.0
*
PaddleX >= 1.0.0
安装的相关问题参考
[
PaddleX安装
](
https://paddlex.readthedocs.io/zh_CN/latest/install.html
)
安装的相关问题参考
[
PaddleX安装
](
../../docs/install.md
)
#### 测试表计读数
#### 测试表计读数
...
@@ -129,7 +129,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
...
@@ -129,7 +129,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
2.
将
`PaddleX\examples\meter_reader\deploy\cpp`
下的
`meter_reader`
文件夹和
`CMakeList.txt`
拷贝至
`PaddleX\deploy\cpp`
目录下,拷贝之前可以将
`PaddleX\deploy\cpp`
下原本的
`CMakeList.txt`
做好备份。
2.
将
`PaddleX\examples\meter_reader\deploy\cpp`
下的
`meter_reader`
文件夹和
`CMakeList.txt`
拷贝至
`PaddleX\deploy\cpp`
目录下,拷贝之前可以将
`PaddleX\deploy\cpp`
下原本的
`CMakeList.txt`
做好备份。
3.
按照
[
Windows平台部署
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/tutorials/deploy/deploy_server/deploy_cpp/deploy_cpp_win_vs2019
.md
)
中的Step2至Step4完成C++预测代码的编译。
3.
按照
[
Windows平台部署
](
../../docs/deploy/server/cpp/windows
.md
)
中的Step2至Step4完成C++预测代码的编译。
4.
编译成功后,可执行文件在
`out\build\x64-Release`
目录下,打开
`cmd`
,并切换到该目录:
4.
编译成功后,可执行文件在
`out\build\x64-Release`
目录下,打开
`cmd`
,并切换到该目录:
...
@@ -182,7 +182,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
...
@@ -182,7 +182,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
*
使用加密后的模型对单张图片做预测
*
使用加密后的模型对单张图片做预测
如果未对模型进行加密,请参考
[
加密PaddleX模型
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/tutorials/deploy/deploy_server/encryption.html#paddlex
)
对模型进行加密。例如加密后的检测模型所在目录为
`\path\to\encrypted_det_inference_model`
,密钥为
`yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0=`
;加密后的分割模型所在目录为
`\path\to\encrypted_seg_inference_model`
,密钥为
`DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY=`
如果未对模型进行加密,请参考
[
加密PaddleX模型
](
../../docs/deploy/server/encryption.md#13-加密paddlex模型
)
对模型进行加密。例如加密后的检测模型所在目录为
`\path\to\encrypted_det_inference_model`
,密钥为
`yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0=`
;加密后的分割模型所在目录为
`\path\to\encrypted_seg_inference_model`
,密钥为
`DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY=`
```
shell
```
shell
.
\p
addlex_inference
\m
eter_reader.exe
--det_model_dir
=
\p
ath
\t
o
\e
ncrypted_det_inference_model
--seg_model_dir
=
\p
ath
\t
o
\e
ncrypted_seg_inference_model
--image
=
\p
ath
\t
o
\t
est.jpg
--use_gpu
=
1
--use_erode
=
1
--save_dir
=
output
--det_key
yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0
=
--seg_key
DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY
=
.
\p
addlex_inference
\m
eter_reader.exe
--det_model_dir
=
\p
ath
\t
o
\e
ncrypted_det_inference_model
--seg_model_dir
=
\p
ath
\t
o
\e
ncrypted_seg_inference_model
--image
=
\p
ath
\t
o
\t
est.jpg
--use_gpu
=
1
--use_erode
=
1
--save_dir
=
output
--det_key
yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0
=
--seg_key
DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY
=
...
@@ -225,7 +225,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
...
@@ -225,7 +225,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
5.
推理预测:
5.
推理预测:
用于部署推理的模型应为inference格式,本案例提供的预训练模型均为inference格式,如若是重新训练的模型,需参考
[
导出inference模型
](
)将模型导出为inference格式。
用于部署推理的模型应为inference格式,本案例提供的预训练模型均为inference格式,如若是重新训练的模型,需参考
[
部署模型导出
](
../../docs/deploy/export_model.md
)
将模型导出为inference格式。
*
使用未加密的模型对单张图片做预测
*
使用未加密的模型对单张图片做预测
...
@@ -247,7 +247,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
...
@@ -247,7 +247,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
*
使用加密后的模型对单张图片做预测
*
使用加密后的模型对单张图片做预测
如果未对模型进行加密,请参考
[
加密PaddleX模型
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/docs/tutorials/deploy/deploy_server/encryption.html#paddlex
)
对模型进行加密。例如加密后的检测模型所在目录为
`/path/to/encrypted_det_inference_model`
,密钥为
`yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0=`
;加密后的分割模型所在目录为
`/path/to/encrypted_seg_inference_model`
,密钥为
`DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY=`
如果未对模型进行加密,请参考
[
加密PaddleX模型
](
../../docs/deploy/server/encryption.md#13-加密paddlex模型
)
对模型进行加密。例如加密后的检测模型所在目录为
`/path/to/encrypted_det_inference_model`
,密钥为
`yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0=`
;加密后的分割模型所在目录为
`/path/to/encrypted_seg_inference_model`
,密钥为
`DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY=`
```
shell
```
shell
./build/meter_reader/meter_reader
--det_model_dir
=
/path/to/encrypted_det_inference_model
--seg_model_dir
=
/path/to/encrypted_seg_inference_model
--image
=
/path/to/test.jpg
--use_gpu
=
1
--use_erode
=
1
--save_dir
=
output
--det_key
yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0
=
--seg_key
DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY
=
./build/meter_reader/meter_reader
--det_model_dir
=
/path/to/encrypted_det_inference_model
--seg_model_dir
=
/path/to/encrypted_seg_inference_model
--image
=
/path/to/test.jpg
--use_gpu
=
1
--use_erode
=
1
--save_dir
=
output
--det_key
yEBLDiBOdlj+5EsNNrABhfDuQGkdcreYcHcncqwdbx0
=
--seg_key
DbVS64I9pFRo5XmQ8MNV2kSGsfEr4FKA6OH9OUhRrsY
=
...
@@ -263,7 +263,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
...
@@ -263,7 +263,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
*
Python >= 3.5
*
Python >= 3.5
*
PaddleX >= 1.0.0
*
PaddleX >= 1.0.0
安装的相关问题参考
[
PaddleX安装
](
https://paddlex.readthedocs.io/zh_CN/latest/install.html
)
安装的相关问题参考
[
PaddleX安装
](
../../docs/install.md
)
#### 训练
#### 训练
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录