Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleX
提交
67008bec
P
PaddleX
项目概览
PaddlePaddle
/
PaddleX
通知
138
Star
4
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
43
列表
看板
标记
里程碑
合并请求
5
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleX
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
43
Issue
43
列表
看板
标记
里程碑
合并请求
5
合并请求
5
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
67008bec
编写于
7月 20, 2020
作者:
J
Jason
提交者:
GitHub
7月 20, 2020
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #234 from PaddlePaddle/develop
fix difference of release/1.1 and develop
上级
d74f5942
5c8d6d65
变更
40
隐藏空白更改
内联
并排
Showing
40 changed file
with
249 addition
and
191 deletion
+249
-191
README.md
README.md
+23
-25
deploy/README.md
deploy/README.md
+13
-4
docs/apis/datasets.md
docs/apis/datasets.md
+9
-9
docs/apis/deploy.md
docs/apis/deploy.md
+1
-1
docs/apis/interpret.md
docs/apis/interpret.md
+1
-1
docs/apis/models/classification.md
docs/apis/models/classification.md
+1
-1
docs/apis/models/detection.md
docs/apis/models/detection.md
+2
-2
docs/apis/models/instance_segmentation.md
docs/apis/models/instance_segmentation.md
+2
-2
docs/apis/models/semantic_segmentation.md
docs/apis/models/semantic_segmentation.md
+4
-3
docs/apis/slim.md
docs/apis/slim.md
+11
-8
docs/apis/transforms/augment.md
docs/apis/transforms/augment.md
+1
-1
docs/apis/transforms/cls_transforms.md
docs/apis/transforms/cls_transforms.md
+1
-1
docs/apis/transforms/det_transforms.md
docs/apis/transforms/det_transforms.md
+1
-1
docs/apis/transforms/seg_transforms.md
docs/apis/transforms/seg_transforms.md
+1
-1
docs/apis/visualize.md
docs/apis/visualize.md
+4
-3
docs/appendix/interpret.md
docs/appendix/interpret.md
+3
-3
docs/appendix/parameters.md
docs/appendix/parameters.md
+11
-11
docs/data/annotation.md
docs/data/annotation.md
+3
-1
docs/deploy/export_model.md
docs/deploy/export_model.md
+18
-6
docs/deploy/nvidia-jetson.md
docs/deploy/nvidia-jetson.md
+4
-4
docs/deploy/paddlelite/android.md
docs/deploy/paddlelite/android.md
+11
-11
docs/deploy/paddlelite/slim/prune.md
docs/deploy/paddlelite/slim/prune.md
+25
-24
docs/deploy/paddlelite/slim/quant.md
docs/deploy/paddlelite/slim/quant.md
+2
-2
docs/deploy/server/cpp/index.rst
docs/deploy/server/cpp/index.rst
+1
-1
docs/deploy/server/cpp/linux.md
docs/deploy/server/cpp/linux.md
+1
-1
docs/deploy/server/cpp/windows.md
docs/deploy/server/cpp/windows.md
+14
-22
docs/deploy/server/encryption.md
docs/deploy/server/encryption.md
+1
-1
docs/deploy/server/python.md
docs/deploy/server/python.md
+11
-5
docs/examples/meter_reader.md
docs/examples/meter_reader.md
+1
-1
docs/gui/index.rst
docs/gui/index.rst
+32
-7
docs/train/instance_segmentation.md
docs/train/instance_segmentation.md
+1
-1
docs/train/object_detection.md
docs/train/object_detection.md
+1
-1
examples/meter_reader/README.md
examples/meter_reader/README.md
+1
-1
paddlex/__init__.py
paddlex/__init__.py
+1
-1
paddlex/cv/datasets/imagenet.py
paddlex/cv/datasets/imagenet.py
+1
-1
paddlex/cv/datasets/seg_dataset.py
paddlex/cv/datasets/seg_dataset.py
+1
-1
paddlex/cv/models/slim/prune.py
paddlex/cv/models/slim/prune.py
+8
-3
paddlex/tools/x2coco.py
paddlex/tools/x2coco.py
+5
-6
setup.py
setup.py
+3
-2
tutorials/compress/README.md
tutorials/compress/README.md
+14
-11
未找到文件。
README.md
浏览文件 @
67008bec
...
...
@@ -18,7 +18,7 @@
### 全流程打通
-
**数据准备**
:兼容ImageNet、VOC、COCO等常用数据协议, 同时与Labelme、精灵标注助手、EasyData智能数据服务平台](https://ai.baidu.com/easydata/)等无缝衔接,全方位助力开发者更快完成数据准备工作。
-
**数据准备**
:兼容ImageNet、VOC、COCO等常用数据协议, 同时与Labelme、精灵标注助手、
[
EasyData智能数据服务平台
](
https://ai.baidu.com/easydata/
)
等无缝衔接,全方位助力开发者更快完成数据准备工作。
-
**数据预处理及增强**
:提供极简的图像预处理和增强方法--Transforms,适配imgaug图像增强库,支持上百种数据增强策略,是开发者快速缓解小样本数据训练的问题。
...
...
@@ -43,45 +43,42 @@
## 安装
PaddleX提供两种开发模式,满足不同场景和用户需求:
**PaddleX提供两种开发模式,满足用户的不同需求:**
-
**Python开发模式:**
通过Python API方式完成全流程使用或集成,该模型提供全面、灵活、开放的深度学习功能,有更高的定制化空间。
1.
**Python开发模式:**
通过简洁易懂的Python API,在兼顾功能全面性、开发灵活性、集成方便性的基础上,给开发者最流畅的深度学习开发体验。
<br>
-
**Padlde-GUI模式:**
PaddleX-GUI支持
`Python开发模式`
下的常用功能,以更低门槛的方式快速完成产业验证的模型训练。
开发者可根据自身需要按需选择不同的模式进行安装使用。
### Python开发模式安装
**前置依赖**
*
paddlepaddle >= 1.8.0
*
python >= 3.5
*
cython
*
pycocotools
**前置依赖**
> - paddlepaddle >= 1.8.0
> - python >= 3.5
> - cython
> - pycocotools
```
pip install paddlex -i https://mirror.baidu.com/pypi/simple
```
安装的相关问题参考
[
PaddleX安装
](
https://paddlex.readthedocs.io/zh_CN/develop/install.html
)
详细安装方法请参考
[
PaddleX安装
](
https://paddlex.readthedocs.io/zh_CN/develop/install.html
)
2.
**Padlde GUI模式:**
无代码开发的可视化客户端,应用Paddle API实现,使开发者快速进行产业项目验证,并为用户开发自有深度学习软件/应用提供参照。
-
前往
[
PaddleX官网
](
https://www.paddlepaddle.org.cn/paddle/paddlex
)
,申请下载Paddle X GUI一键绿色安装包。
### PaddleX-GUI安装
-
前往
[
PaddleX GUI使用教程
](
./docs/gui/how_to_use.md
)
了解PaddleX GUI使用详情。
进入PaddleX官网
[
下载使用
](
https://www.paddlepaddle.org.cn/paddle/paddlex
)
,申请下载绿色安装包,开箱即用。
Paddle-GUI的使用教程可参考
[
PaddleX-GUI模式使用教程
](
./docs/gui/how_to_use.md
)
##
使用文档
##
完整使用文档及API说明
推荐访问
[
PaddleX在线使用文档
](
https://paddlex.readthedocs.io/zh_CN/develop/index.html
)
,快速查阅读使用教程和API文档说明。
-
[
完整PaddleX在线使用文档目录
](
https://paddlex.readthedocs.io/zh_CN/develop/index.html
)
-
[
10分钟快速上手
使用
](
https://paddlex.readthedocs.io/zh_CN/develop/quick_start.html
)
-
[
10分钟快速上手
系列教程
](
https://paddlex.readthedocs.io/zh_CN/develop/quick_start.html
)
-
[
PaddleX模型训练教程集合
](
https://paddlex.readthedocs.io/zh_CN/develop/train/index.html
)
-
[
PaddleX API
参考文档
](
https://paddlex.readthedocs.io/zh_CN/develop/apis/index.html
)
-
[
PaddleX API
接口说明
](
https://paddlex.readthedocs.io/zh_CN/develop/apis/index.html
)
## 在线
教程
## 在线
项目示例
基于AIStudio平台,快速在线体验PaddleX的Python开发模式教程
。
为了使开发者更快掌握PaddleX API,我们创建了一系列完整的示例教程,您可通过AIStudio一站式开发平台,快速在线运行PaddleX的项目
。
-
[
PaddleX快速上手CV模型训练
](
https://aistudio.baidu.com/aistudio/projectdetail/450925
)
-
[
PaddleX快速上手——MobileNetV3-ssld 化妆品分类
](
https://aistudio.baidu.com/aistudio/projectdetail/450220
)
-
[
PaddleX快速上手——Faster-RCNN AI识虫
](
https://aistudio.baidu.com/aistudio/projectdetail/439888
)
-
[
PaddleX快速上手——DeepLabv3+ 视盘分割
](
https://aistudio.baidu.com/aistudio/projectdetail/440197
)
...
...
@@ -97,6 +94,7 @@ Paddle-GUI的使用教程可参考[PaddleX-GUI模式使用教程](./docs/gui/how
## 更新日志
> [历史版本及更新内容](https://paddlex.readthedocs.io/zh_CN/develop/change_log.html)
-
2020.07.13 v1.1.0
-
2020.07.12 v1.0.8
-
2020.05.20 v1.0.0
-
2020.05.17 v0.1.8
...
...
deploy/README.md
浏览文件 @
67008bec
#
多端安全
部署
#
模型
部署
本目录为PaddleX模型部署代码,编译和使用教程参考:
-
[
服务端部署(支持Python部署、C++部署、模型加密部署)
](
../docs/tutorials/deploy/deploy_server/
)
-
[
OpenVINO部署
](
../docs/tutorials/deploy/deploy_openvino.md
)
-
[
移动端部署
](
../docs/tutorials/deploy/deploy_lite.md
)
-
[
服务端部署
](
../docs/deploy/server/
)
-
[
Python部署
](
../docs/deploy/server/python.md
)
-
[
C++部署
](
../docs/deploy/server/cpp/
)
-
[
Windows平台部署
](
../docs/deploy/server/cpp/windows.md
)
-
[
Linux平台部署
](
../docs/deploy/server/cpp/linux.md
)
-
[
模型加密部署
](
../docs/deploy/server/encryption.md
)
-
[
Nvidia Jetson开发板部署
](
../docs/deploy/nvidia-jetson.md
)
-
[
移动端部署
](
../docs/deploy/paddlelite/
)
-
[
模型压缩
](
../docs/deploy/paddlelite/slim
)
-
[
模型量化
](
../docs/deploy/paddlelite/slim/quant.md
)
-
[
模型裁剪
](
../docs/deploy/paddlelite/slim/prune.md
)
-
[
Android平台
](
../docs/deploy/paddlelite/android.md
)
docs/apis/datasets.md
浏览文件 @
67008bec
...
...
@@ -3,7 +3,7 @@
## paddlex.datasets.ImageNet
> **用于图像分类模型**
```
paddlex.datasets.ImageNet(data_dir, file_list, label_list, transforms=None, num_workers=‘auto’, buffer_size=
100, parallel_method='thread
', shuffle=False)
paddlex.datasets.ImageNet(data_dir, file_list, label_list, transforms=None, num_workers=‘auto’, buffer_size=
8, parallel_method='process
', shuffle=False)
```
读取ImageNet格式的分类数据集,并对样本进行相应的处理。ImageNet数据集格式的介绍可查看文档:
[
数据集格式说明
](
../data/format/index.html
)
...
...
@@ -16,14 +16,14 @@ paddlex.datasets.ImageNet(data_dir, file_list, label_list, transforms=None, num_
> > * **label_list** (str): 描述数据集包含的类别信息文件路径。
> > * **transforms** (paddlex.cls.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.cls.transforms](./transforms/cls_transforms.md)。
> > * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> > * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为
100
。
> > * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为
8
。
> > * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'process'(Windows和Mac下会强制使用thread,该参数无效)。
> > * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
## paddlex.datasets.VOCDetection
> **用于目标检测模型**
```
paddlex.datasets.VOCDetection(data_dir, file_list, label_list, transforms=None, num_workers=‘auto’, buffer_size=100, parallel_method='
thread
', shuffle=False)
paddlex.datasets.VOCDetection(data_dir, file_list, label_list, transforms=None, num_workers=‘auto’, buffer_size=100, parallel_method='
process
', shuffle=False)
```
> 读取PascalVOC格式的检测数据集,并对样本进行相应的处理。PascalVOC数据集格式的介绍可查看文档:[数据集格式说明](../data/format/index.html)
...
...
@@ -44,7 +44,7 @@ paddlex.datasets.VOCDetection(data_dir, file_list, label_list, transforms=None,
## paddlex.datasets.CocoDetection
> **用于实例分割/目标检测模型**
```
paddlex.datasets.CocoDetection(data_dir, ann_file, transforms=None, num_workers='auto', buffer_size=100, parallel_method='
thread
', shuffle=False)
paddlex.datasets.CocoDetection(data_dir, ann_file, transforms=None, num_workers='auto', buffer_size=100, parallel_method='
process
', shuffle=False)
```
> 读取MSCOCO格式的检测数据集,并对样本进行相应的处理,该格式的数据集同样可以应用到实例分割模型的训练中。MSCOCO数据集格式的介绍可查看文档:[数据集格式说明](../data/format/index.html)
...
...
@@ -64,7 +64,7 @@ paddlex.datasets.CocoDetection(data_dir, ann_file, transforms=None, num_workers=
## paddlex.datasets.SegDataset
> **用于语义分割模型**
```
paddlex.datasets.SegDataset(data_dir, file_list, label_list, transforms=None, num_workers='auto', buffer_size=100, parallel_method='
thread
', shuffle=False)
paddlex.datasets.SegDataset(data_dir, file_list, label_list, transforms=None, num_workers='auto', buffer_size=100, parallel_method='
process
', shuffle=False)
```
> 读取语义分割任务数据集,并对样本进行相应的处理。语义分割任务数据集格式的介绍可查看文档:[数据集格式说明](../data/format/index.html)
...
...
@@ -85,7 +85,7 @@ paddlex.datasets.SegDataset(data_dir, file_list, label_list, transforms=None, nu
## paddlex.datasets.EasyDataCls
> **用于图像分类模型**
```
paddlex.datasets.EasyDataCls(data_dir, file_list, label_list, transforms=None, num_workers='auto', buffer_size=
100, parallel_method='thread
', shuffle=False)
paddlex.datasets.EasyDataCls(data_dir, file_list, label_list, transforms=None, num_workers='auto', buffer_size=
8, parallel_method='process
', shuffle=False)
```
> 读取EasyData平台标注图像分类数据集,并对样本进行相应的处理。
...
...
@@ -97,14 +97,14 @@ paddlex.datasets.EasyDataCls(data_dir, file_list, label_list, transforms=None, n
> > * **label_list** (str): 描述数据集包含的类别信息文件路径。
> > * **transforms** (paddlex.seg.transforms): 数据集中每个样本的预处理/增强算子,详见[paddlex.cls.transforms](./transforms/cls_transforms.md)。
> > * **num_workers** (int|str):数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核数的一半。
> > * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为
100
。
> > * **buffer_size** (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为
8
。
> > * **parallel_method** (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'线程和'process'进程两种方式。默认为'process'(Windows和Mac下会强制使用thread,该参数无效)。
> > * **shuffle** (bool): 是否需要对数据集中样本打乱顺序。默认为False。
## paddlex.datasets.EasyDataDet
> 用于**目标检测/实例分割模型**
```
paddlex.datasets.EasyDataDet(data_dir, file_list, label_list, transforms=None, num_workers=‘auto’, buffer_size=100, parallel_method='
thread
', shuffle=False)
paddlex.datasets.EasyDataDet(data_dir, file_list, label_list, transforms=None, num_workers=‘auto’, buffer_size=100, parallel_method='
process
', shuffle=False)
```
> 读取EasyData目标检测/实例分割格式数据集,并对样本进行相应的处理,该格式的数据集同样可以应用到实例分割模型的训练中。
...
...
@@ -124,7 +124,7 @@ paddlex.datasets.EasyDataDet(data_dir, file_list, label_list, transforms=None, n
## paddlex.datasets.EasyDataSeg
> **用于语义分割模型**
```
paddlex.datasets.EasyDataSeg(data_dir, file_list, label_list, transforms=None, num_workers='auto', buffer_size=100, parallel_method='
thread
', shuffle=False)
paddlex.datasets.EasyDataSeg(data_dir, file_list, label_list, transforms=None, num_workers='auto', buffer_size=100, parallel_method='
process
', shuffle=False)
```
> 读取EasyData语义分割任务数据集,并对样本进行相应的处理。
...
...
docs/apis/deploy.md
浏览文件 @
67008bec
...
...
@@ -12,7 +12,7 @@ paddlex.deploy.Predictor(model_dir, use_gpu=False, gpu_id=0, use_mkl=False, use_
**参数**
> * **model_dir** (str):
训练过程中保存的模型路径, 注意需要使用导出的inference模型
。
> * **model_dir** (str):
导出为inference格式的模型路径
。
> * **use_gpu** (bool): 是否使用GPU进行预测。
> * **gpu_id** (int): 使用的GPU序列号。
> * **use_mkl** (bool): 是否使用mkldnn加速库。
...
...
docs/apis/interpret.md
浏览文件 @
67008bec
...
...
@@ -53,6 +53,6 @@ NormLIME是利用一定数量的样本来出一个全局的解释。由于NormLI
>* **save_dir** (str): 可解释性可视化结果(保存为png格式文件)和中间文件存储路径。
>* **normlime_weights_file** (str): NormLIME初始化文件名,若不存在,则计算一次,保存于该路径;若存在,则直接载入。
**注意:**
dataset
`
读取的是一个数据集,该数据集不宜过大,否则计算时间会较长,但应包含所有类别的数据。NormLIME可解释性结果可视化目前只支持分类模型。
**注意:**
`
dataset`
读取的是一个数据集,该数据集不宜过大,否则计算时间会较长,但应包含所有类别的数据。NormLIME可解释性结果可视化目前只支持分类模型。
### 使用示例
> 对预测可解释性结果可视化的过程可参见[代码](https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/interpret/normlime.py)。
docs/apis/models/classification.md
浏览文件 @
67008bec
...
...
@@ -84,7 +84,7 @@ predict(self, img_file, transforms=None, topk=5)
batch_predict
(
self
,
img_file_list
,
transforms
=
None
,
topk
=
5
,
thread_num
=
2
)
```
> 分类模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`ResNet50.test_transforms`和`ResNet50.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
predict`接口时,用户需要再重新定义test_transforms传入给`
predict`接口。
> 分类模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`ResNet50.test_transforms`和`ResNet50.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
batch_predict`接口时,用户需要再重新定义test_transforms传入给`batch_
predict`接口。
> **参数**
>
...
...
docs/apis/models/detection.md
浏览文件 @
67008bec
...
...
@@ -101,7 +101,7 @@ predict(self, img_file, transforms=None)
batch_predict
(
self
,
img_file_list
,
transforms
=
None
,
thread_num
=
2
)
```
> YOLOv3模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`YOLOv3.test_transforms`和`YOLOv3.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
predict`接口时,用户需要再重新定义`test_transforms`传入给`
predict`接口
> YOLOv3模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`YOLOv3.test_transforms`和`YOLOv3.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
batch_predict`接口时,用户需要再重新定义`test_transforms`传入给`batch_
predict`接口
> **参数**
>
...
...
@@ -206,7 +206,7 @@ predict(self, img_file, transforms=None)
batch_predict
(
self
,
img_file_list
,
transforms
=
None
,
thread_num
=
2
)
```
> FasterRCNN模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`FasterRCNN.test_transforms`和`FasterRCNN.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
predict`接口时,用户需要再重新定义test_transforms传入给`
predict`接口。
> FasterRCNN模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`FasterRCNN.test_transforms`和`FasterRCNN.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
batch_predict`接口时,用户需要再重新定义test_transforms传入给`batch_
predict`接口。
> **参数**
>
...
...
docs/apis/models/instance_segmentation.md
浏览文件 @
67008bec
...
...
@@ -73,7 +73,7 @@ evaluate(self, eval_dataset, batch_size=1, epoch_id=None, metric=None, return_de
predict
(
self
,
img_file
,
transforms
=
None
)
```
> MaskRCNN模型预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在
FasterRCNN.test_transforms和FasterRCNN.eval_transforms中。如未在训练时定义eval_dataset,那在调用预测predict接口时,用户需要再重新定义test_transforms传入给predict
接口。
> MaskRCNN模型预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在
`FasterRCNN.test_transforms`和`FasterRCNN.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`predict`接口时,用户需要再重新定义test_transforms传入给`predict`
接口。
> **参数**
>
...
...
@@ -91,7 +91,7 @@ predict(self, img_file, transforms=None)
batch_predict
(
self
,
img_file_list
,
transforms
=
None
,
thread_num
=
2
)
```
> MaskRCNN模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在
FasterRCNN.test_transforms和FasterRCNN.eval_transforms中。如未在训练时定义eval_dataset,那在调用预测predict接口时,用户需要再重新定义test_transforms传入给predict
接口。
> MaskRCNN模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在
`FasterRCNN.test_transforms`和`FasterRCNN.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`batch_predict`接口时,用户需要再重新定义test_transforms传入给`batch_predict`
接口。
> **参数**
>
...
...
docs/apis/models/semantic_segmentation.md
浏览文件 @
67008bec
...
...
@@ -85,7 +85,7 @@ predict(self, img_file, transforms=None):
> >
> > - **img_file** (str|np.ndarray): 预测图像路径或numpy数组(HWC排列,BGR格式)。
> > - **transforms** (paddlex.seg.transforms): 数据预处理操作。
> > - **thread_num** (int): 并发执行各图像预处理时的线程数。
> **返回值**
> >
> > - **dict**: 包含关键字'label_map'和'score_map', 'label_map'存储预测结果灰度图,像素值表示对应的类别,'score_map'存储各类别的概率,shape=(h, w, num_classes)。
...
...
@@ -94,15 +94,16 @@ predict(self, img_file, transforms=None):
### batch_predict
```
batch_predict(self, img_file_list, transforms=None):
batch_predict(self, img_file_list, transforms=None
, thread_num=2
):
```
> DeepLabv3p模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`DeepLabv3p.test_transforms`和`DeepLabv3p.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
predict`接口时,用户需要再重新定义test_transforms传入给`
predict`接口。
> DeepLabv3p模型批量预测接口。需要注意的是,只有在训练过程中定义了eval_dataset,模型在保存时才会将预测时的图像处理流程保存在`DeepLabv3p.test_transforms`和`DeepLabv3p.eval_transforms`中。如未在训练时定义eval_dataset,那在调用预测`
batch_predict`接口时,用户需要再重新定义test_transforms传入给`batch_
predict`接口。
> **参数**
> >
> > - **img_file_list** (list|tuple): 对列表(或元组)中的图像同时进行预测,列表中的元素可以是预测图像路径或numpy数组(HWC排列,BGR格式)。
> > - **transforms** (paddlex.seg.transforms): 数据预处理操作。
> > - **thread_num** (int): 并发执行各图像预处理时的线程数。
> **返回值**
> >
...
...
docs/apis/slim.md
浏览文件 @
67008bec
...
...
@@ -5,13 +5,15 @@
```
paddlex.slim.cal_params_sensitivities(model, save_file, eval_dataset, batch_size=8)
```
计算模型中可裁剪参数在验证集上的敏感度,并将敏感度信息保存至文件
`save_file`
1.
获取模型中可裁剪卷积Kernel的名称。
2.
计算每个可裁剪卷积Kernel不同裁剪率下的敏感度。
【注意】卷积的敏感度是指在不同裁剪率下评估数据集预测精度的损失,通过得到的敏感度,可以决定最终模型需要裁剪的参数列表和各裁剪参数对应的裁剪率。
计算模型中可剪裁参数在验证集上的敏感度,并将敏感度信息保存至文件
`save_file`
1.
获取模型中可剪裁卷积Kernel的名称。
2.
计算每个可剪裁卷积Kernel不同剪裁率下的敏感度。
【注意】卷积的敏感度是指按照剪裁率将模型剪裁后模型精度的损失。选择合适的敏感度,对应地也能确定最终模型需要剪裁的参数列表和各剪裁参数对应的剪裁率。
[
查看使用示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/compress/classification/cal_sensitivities_file.py#L33
)
### 参数
**参数**
*
**model**
(paddlex.cls.models/paddlex.det.models/paddlex.seg.models): paddlex加载的模型。
*
**save_file**
(str): 计算的得到的sensetives文件存储路径。
...
...
@@ -24,9 +26,9 @@ paddlex.slim.cal_params_sensitivities(model, save_file, eval_dataset, batch_size
```
paddlex.slim.export_quant_model(model, test_dataset, batch_size=2, batch_num=10, save_dir='./quant_model', cache_dir='./temp')
```
导出量化模型,该接口实现了Post Quantization量化方式,需要传入测试数据集,并设定
`batch_size`
和
`batch_num`
,模型会以
`batch_size`
的大小计算
`batch_num`
批样本数据,并以这些样本数据的计算结果为统计信息进行模型
量化。
导出量化模型,该接口实现了Post Quantization量化方式,需要传入测试数据集,并设定
`batch_size`
和
`batch_num`
。量化过程中会以数量为
`batch_size`
X
`batch_num`
的样本数据的计算结果为统计信息完成模型的
量化。
### 参数
**参数**
*
**model**
(paddlex.cls.models/paddlex.det.models/paddlex.seg.models): paddlex加载的模型。
*
**test_dataset**
(paddlex.dataset): 测试数据集
...
...
@@ -36,7 +38,8 @@ paddlex.slim.export_quant_model(model, test_dataset, batch_size=2, batch_num=10,
*
**cache_dir**
(str): 量化过程中的统计数据临时存储目录
### 使用示例
**使用示例**
点击下载如下示例中的
[
模型
](
https://bj.bcebos.com/paddlex/models/vegetables_mobilenetv2.tar.gz
)
,
[
数据集
](
https://bj.bcebos.com/paddlex/datasets/vegetables_cls.tar.gz
)
```
import
paddlex
as
pdx
...
...
docs/apis/transforms/augment.md
浏览文件 @
67008bec
...
...
@@ -30,7 +30,7 @@ train_transforms = transforms.Compose([
| 增强方法 | 图像分类 | 目标检测
<br>
实例分割 | 语义分割 | 备注 |
| :------ | :------- | :-------------------- | :------- | :--- |
|
[
imgaug.augmenters.arithmetic
](
https://imgaug.readthedocs.io/en/latest/source/api_augmenters_arithmetic.html
)
|√ |√ |√ | Cutout, DropoutJpegCompression等|
|
[
imgaug.augmenters.arithmetic
](
https://imgaug.readthedocs.io/en/latest/source/api_augmenters_arithmetic.html
)
|√ |√ |√ | Cutout, Dropout
,
JpegCompression等|
|
[
imgaug.augmenters.artistic
](
https://imgaug.readthedocs.io/en/latest/source/api_augmenters_artistic.html
)
|√ |√ |√ | 图像卡通化|
|
[
imgaug.augmenters.blur
](
https://imgaug.readthedocs.io/en/latest/source/api_augmenters_blur.html
)
|√ |√ |√ | GaussianBlur, AverageBlur等|
|
[
imgaug.augmenters.collections
](
https://imgaug.readthedocs.io/en/latest/source/api_augmenters_collections.html
)
|√ | | |提供了RandAugment方法 |
...
...
docs/apis/transforms/cls_transforms.md
浏览文件 @
67008bec
...
...
@@ -7,7 +7,7 @@
paddlex
.
cls
.
transforms
.
Compose
(
transforms
)
```
根据数据预处理/增强算子对输入数据进行操作。
[
使用示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/
classification/mobilenetv2.py#L13
)
根据数据预处理/增强算子对输入数据进行操作。
[
使用示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/
image_classification/mobilenetv2.py#L15
)
> **参数**
> * **transforms** (list): 数据预处理/数据增强列表。
...
...
docs/apis/transforms/det_transforms.md
浏览文件 @
67008bec
...
...
@@ -7,7 +7,7 @@
paddlex
.
det
.
transforms
.
Compose
(
transforms
)
```
根据数据预处理/增强算子对输入数据进行操作。
[
使用示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/
detection/yolov3_mobilenetv1.py#L13
)
根据数据预处理/增强算子对输入数据进行操作。
[
使用示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/
object_detection/yolov3_mobilenetv1.py#L15
)
### 参数
*
**transforms**
(list): 数据预处理/数据增强列表。
...
...
docs/apis/transforms/seg_transforms.md
浏览文件 @
67008bec
...
...
@@ -7,7 +7,7 @@
```
python
paddlex
.
seg
.
transforms
.
Compose
(
transforms
)
```
根据数据预处理/数据增强列表对输入数据进行操作。
[
使用示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/se
gmentation/unet.py#L13
)
根据数据预处理/数据增强列表对输入数据进行操作。
[
使用示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/se
mantic_segmentation/fast_scnn.py#L15
)
### 参数
*
**transforms**
(list): 数据预处理/数据增强列表。
...
...
docs/apis/visualize.md
浏览文件 @
67008bec
...
...
@@ -101,15 +101,16 @@ pdx.det.draw_pr_curve(gt=gt, pred_bbox=bbox, save_dir='./insect')
## paddlex.slim.visualzie
> **模型
裁剪
比例可视化分析**
> **模型
剪裁
比例可视化分析**
```
paddlex.slim.visualize(model, sensitivities_file)
paddlex.slim.visualize(model, sensitivities_file
, save_dir='./'
)
```
利用此接口,可以分析在不同的
`eval_metric_loss`
参数下,模型被
裁剪的比例情况。可视化结果纵轴为eval_metric_loss参数值,横轴为对应的模型被裁剪的比例
。
利用此接口,可以分析在不同的
`eval_metric_loss`
参数下,模型被
剪裁的比例情况。可视化结果纵轴为eval_metric_loss参数值,横轴为对应的模型被剪裁的比例。
`eval_metric_loss`
即卷积的敏感度,是指按照剪裁率将模型剪裁后模型精度的损失
。
### 参数
>* **model** (paddlex.cv.models): 使用PaddleX加载的模型。
>* **sensitivities_file** (str): 模型各参数在验证集上计算得到的参数敏感度信息文件。
>* **save_dir**(str): 可视化结果保存路径,默认为当前目录
### 使用示例
> 点击下载示例中的[模型](https://bj.bcebos.com/paddlex/models/vegetables_mobilenet.tar.gz)和[sensitivities_file](https://bj.bcebos.com/paddlex/slim_prune/mobilenetv2.sensitivities)
...
...
docs/appendix/interpret.md
浏览文件 @
67008bec
# PaddleX可解释性
目前深度学习
模型普遍存在一个问题,因为使用模型预测还是一个黑盒,几乎无法去感知
它的内部工作状态,预测结果的可信度一直遭到质疑。为此,PadlleX提供了2种对图像分类预测结果进行可解释性研究的算法:LIME和NormLIME。
目前深度学习
普遍存在一个问题:模型目前还是黑盒,几乎无法感知到
它的内部工作状态,预测结果的可信度一直遭到质疑。为此,PadlleX提供了2种对图像分类预测结果进行可解释性研究的算法:LIME和NormLIME。
## LIME
LIME全称Local interpretable model-agnostic explanations,表示一种与模型无关的局部可解释性。其实现步骤主要如下:
1.
获取图像的超像素。
2.
以输入样本为中心,在其附近的空间中进行随机采样,每个采样即对
对象
中的超像素进行随机遮掩(每个采样的权重和该采样与原样本的距离成反比)。
2.
以输入样本为中心,在其附近的空间中进行随机采样,每个采样即对
样本
中的超像素进行随机遮掩(每个采样的权重和该采样与原样本的距离成反比)。
3.
每个采样通过预测模型得到新的输出,这样得到一系列的输入
`X`
和对应的输出
`Y`
。
4.
将
`X`
转换为超像素特征
`F`
,用一个简单的、可解释的模型
`Model`
(这里使用岭回归)来拟合
`F`
和
`Y`
的映射关系。
5.
`Model`
将得到
`F`
每个输入维度的权重(每个维度代表一个超像素),以此来解释模型。
LIME的使用方式可参见
[
代码示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/interpret/lime.py
)
和
[
api介绍
](
../apis/visualize.html#lime
)
。在使用时,参数中的
`num_samples`
设置尤为重要,其表示上述步骤2中的随机采样的个数,若设置过小会影响可解释性结果的稳定性,若设置过大则将在上述步骤3耗费较长时间;参数
`batch_size`
则表示在计算上述步骤3时,
预测的batch size,
若设置过小将在上述步骤3耗费较长时间,而上限则根据机器配置决定。
LIME的使用方式可参见
[
代码示例
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/interpret/lime.py
)
和
[
api介绍
](
../apis/visualize.html#lime
)
。在使用时,参数中的
`num_samples`
设置尤为重要,其表示上述步骤2中的随机采样的个数,若设置过小会影响可解释性结果的稳定性,若设置过大则将在上述步骤3耗费较长时间;参数
`batch_size`
则表示在计算上述步骤3时,若设置过小将在上述步骤3耗费较长时间,而上限则根据机器配置决定。
最终LIME可解释性算法的可视化结果如下所示:

...
...
docs/appendix/parameters.md
浏览文件 @
67008bec
...
...
@@ -2,12 +2,12 @@
PaddleX所有训练接口中,内置的参数均为根据单GPU卡相应batch_size下的较优参数,用户在自己的数据上训练模型,涉及到参数调整时,如无太多参数调优经验,则可参考如下方式
## 1.
Epoch数
的调整
Epoch数是模型训练过程,迭代的轮数
,用户可以设置较大的数值,根据模型迭代过程在验证集上的指标表现,来判断模型是否收敛,进而提前终止训练。此外也可以使用
`train`
接口中的
`early_stop`
策略,模型在训练过程会自动判断模型是否收敛自动中止。
## 1.
num_epochs
的调整
num_epochs是模型训练迭代的总轮数(模型对训练集全部样本过一遍即为一个epoch)
,用户可以设置较大的数值,根据模型迭代过程在验证集上的指标表现,来判断模型是否收敛,进而提前终止训练。此外也可以使用
`train`
接口中的
`early_stop`
策略,模型在训练过程会自动判断模型是否收敛自动中止。
## 2.batch_size和learning_rate
> - Batch Size指模型在训练过程中,
一次性处理
的样本数量
> - Batch Size指模型在训练过程中,
前向计算一次(即为一个step)所用到
的样本数量
> - 如若使用多卡训练, batch_size会均分到各张卡上(因此需要让batch size整除卡数)
> - Batch Size跟机器的显存/内存高度相关,`batch_size`越高,所消耗的显存/内存就越高
> - PaddleX在各个`train`接口中均配置了默认的batch size(默认针对单GPU卡),如若训练时提示GPU显存不足,则相应调低BatchSize,如若GPU显存高或使用多张GPU卡时,可相应调高BatchSize。
...
...
@@ -15,9 +15,9 @@ Epoch数是模型训练过程,迭代的轮数,用户可以设置较大的数
## 3.warmup_steps和warmup_start_lr
在训练模型时,一般都会使用预训练模型,例如检测模型在训练时使用backbone在ImageNet数据集上的预训练权重。但由于在自行训练时,自己的数据与ImageNet数据集存在较大的差异,可能会一开始由于梯度过大使得训练出现问题,
因此可以在刚开始训练时,让学习率以一个较小的值,慢慢增长到设定的学习率。因此
`warmup_steps`
和
`warmup_start_lr`
就是
这个作用,模型开始训练时,学习率会从
`warmup_start_lr`
开始,在
`warmup_steps`
个batch数据迭代后线性增长到设定的学习率。
在训练模型时,一般都会使用预训练模型,例如检测模型在训练时使用backbone在ImageNet数据集上的预训练权重。但由于在自行训练时,自己的数据与ImageNet数据集存在较大的差异,可能会一开始由于梯度过大使得训练出现问题,
这种情况下可以在刚开始训练时,让学习率以一个较小的值,慢慢增长到设定的学习率。
`warmup_steps`
和
`warmup_start_lr`
就是起到
这个作用,模型开始训练时,学习率会从
`warmup_start_lr`
开始,在
`warmup_steps`
个batch数据迭代后线性增长到设定的学习率。
> 例如YOLOv3的train接口,默认`train_batch_size`为8,`learning_rate`为0.000125, `warmup_steps`为1000, `warmup_start_lr`为0.0;在此参数配置下表示,模型在启动训练后,在前1000个step(每个step
表示一个batch的数据,也就是
8个样本)内,学习率会从0.0开始线性增长到设定的0.000125。
> 例如YOLOv3的train接口,默认`train_batch_size`为8,`learning_rate`为0.000125, `warmup_steps`为1000, `warmup_start_lr`为0.0;在此参数配置下表示,模型在启动训练后,在前1000个step(每个step
使用一个batch的数据,即
8个样本)内,学习率会从0.0开始线性增长到设定的0.000125。
## 4.lr_decay_epochs和lr_decay_gamma
...
...
@@ -46,7 +46,7 @@ num_steps_each_eposh = num_samples_in_train_dataset // train_batch_size
在
`import paddlex`
前配置环境变量,代码如下
```
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0' # 使用
第1张
GPU卡进行训练
os.environ['CUDA_VISIBLE_DEVICES'] = '0' # 使用
0号
GPU卡进行训练
# 注意paddle或paddlex都需要在设置环境变量后再import
import paddlex as pdx
```
...
...
@@ -59,7 +59,7 @@ import paddlex as pdx
```
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1,3' #
使用第1、2、4张
GPU卡进行训练
os.environ['CUDA_VISIBLE_DEVICES'] = '0,1,3' #
同时使用第0、1、3号
GPU卡进行训练
import paddlex as pdx
```
...
...
@@ -67,7 +67,7 @@ import paddlex as pdx
## 相关模型接口
-
图像分类模型
[
train接口
](
../apis/models/classification.html#train
)
-
FasterRCNN
[
train接口
](
../apis/models/detection.html#id1
)
-
YOLOv3
[
train接口
](
../apis/models/detection.html#train
)
-
MaskRCNN
[
train接口
](
../apis/models/instance_segmentation.html#train
)
-
DeepLabv3p
[
train接口
](
../apis/models/semantic_segmentation.html#train
)
-
目标检测
FasterRCNN
[
train接口
](
../apis/models/detection.html#id1
)
-
目标检测
YOLOv3
[
train接口
](
../apis/models/detection.html#train
)
-
实例分割
MaskRCNN
[
train接口
](
../apis/models/instance_segmentation.html#train
)
-
语义分割
[
train接口
](
../apis/models/semantic_segmentation.html#train
)
docs/data/annotation.md
浏览文件 @
67008bec
...
...
@@ -36,4 +36,6 @@ paddlex --data_conversion --source labelme --to PascalVOC --pics ./pics --annota
| --pics | 指定原图所在的目录路径 |
| --annotations | 指定标注文件所在的目录路径 |
**注意**
:精灵标注的目标检测数据可以在工具内部导出为PascalVOC格式,因此paddlex未提供精灵标注数据到PascalVOC格式的转换
**注意**
:
1.
精灵标注的目标检测数据可以在工具内部导出为PascalVOC格式,因此paddlex未提供精灵标注数据到PascalVOC格式的转换
2.
在将LabelMe数据集转换为COCO数据集时,LabelMe的图像文件名和json文件名需要一一对应,才可正确转换
docs/deploy/export_model.md
浏览文件 @
67008bec
# 部署模型导出
在服务端部署的模型需要首先将模型导出为inference格式模型,导出的模型将包括
`__model__`
、
`__params__`
和
`model.yml`
三个文名,分别为模型的网络结构,模型权重和模型的配置文件(包括数据预处理参数等等)。在安装完PaddleX后,在命令行终端使用如下命令导出模型到当前目录
`inferece_model`
下。
> 可直接下载小度熊分拣模型测试本文档的流程[xiaoduxiong_epoch_12.tar.gz](https://bj.bcebos.com/paddlex/models/xiaoduxiong_epoch_12.tar.gz)
在服务端部署模型时需要将训练过程中保存的模型导出为inference格式模型,导出的inference格式模型包括
`__model__`
、
`__params__`
和
`model.yml`
三个文件,分别表示模型的网络结构、模型权重和模型的配置文件(包括数据预处理参数等)。
> **检查你的模型文件夹**,如果里面是`model.pdparams`, `model.pdmodel`和`model.yml`3个文件时,那么就需要按照下面流程进行模型导出
在安装完PaddleX后,在命令行终端使用如下命令将模型导出。可直接下载小度熊分拣模型来测试本文档的流程
[
xiaoduxiong_epoch_12.tar.gz
](
https://bj.bcebos.com/paddlex/models/xiaoduxiong_epoch_12.tar.gz
)
。
```
paddlex --export_inference --model_dir=./xiaoduxiong_epoch_12 --save_dir=./inference_model
```
使用TensorRT预测时,需指定模型的图像输入shape:[w,h]。
**注**
:
-
分类模型请保持于训练时输入的shape一致。
-
指定[w,h]时,w和h中间逗号隔开,不允许存在空格等其他字符
| 参数 | 说明 |
| ---- | ---- |
| --export_inference | 是否将模型导出为用于部署的inference格式,指定即为True |
| --model_dir | 待导出的模型路径 |
| --save_dir | 导出的模型存储路径 |
| --fixed_input_shape | 固定导出模型的输入大小,默认值为None |
使用TensorRT预测时,需固定模型的输入大小,通过
`--fixed_input_shape `
来制定输入大小[w,h]。
**注意**
:
-
分类模型的固定输入大小请保持与训练时的输入大小一致;
-
指定[w,h]时,w和h中间逗号隔开,不允许存在空格等其他字符。
```
paddlex --export_inference --model_dir=./xiaoduxiong_epoch_12 --save_dir=./inference_model --fixed_input_shape=[640,960]
...
...
docs/deploy/nvidia-jetson.md
浏览文件 @
67008bec
# Nvidia
-
Jetson开发板
# Nvidia
Jetson开发板
## 说明
本文档在
`Linux`
平台使用
`GCC
4.8.5`
和
`GCC 4.9.4`
测试过,如果需要使用更高G++版本编译使用,则需要重新编译Paddle预测库,请参考:
[
NVIDIA
Jetson嵌入式硬件预测库源码编译
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html#id12
)
。
本文档在
`Linux`
平台使用
`GCC
7.4`
测试过,如果需要使用更高G++版本编译使用,则需要重新编译Paddle预测库,请参考:
[
Nvidia
Jetson嵌入式硬件预测库源码编译
](
https://www.paddlepaddle.org.cn/documentation/docs/zh/develop/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html#id12
)
。
## 前置条件
*
G++
4.8.2 ~ 4.9
.4
*
G++
7
.4
*
CUDA 9.0 / CUDA 10.0, CUDNN 7+ (仅在使用GPU版本的预测库时需要)
*
CMake 3.0+
...
...
@@ -19,7 +19,7 @@
### Step2: 下载PaddlePaddle C++ 预测库 paddle_inference
目前PaddlePaddle为Nvidia
-Jetson
提供了一个基于1.6.2版本的C++ 预测库。
目前PaddlePaddle为Nvidia
Jetson
提供了一个基于1.6.2版本的C++ 预测库。
| 版本说明 | 预测库(1.6.2版本) |
| ---- | ---- |
...
...
docs/deploy/paddlelite/android.md
浏览文件 @
67008bec
# Android平台
PaddleX的安卓端部署
由Paddle Lite实现,部署的流程如下,首先将训练好的模型导出为inference model,然后对模型进行优化,最后使用Paddle Lite的
预测库进行部署,Paddle Lite的详细介绍和使用可参考:
[
Paddle Lite文档
](
https://paddle-lite.readthedocs.io/zh/latest/
)
PaddleX的安卓端部署
基于Paddle Lite实现,部署的流程如下,首先将训练好的模型导出为inference model,然后对模型进行优化,最后使用Paddle Lite
预测库进行部署,Paddle Lite的详细介绍和使用可参考:
[
Paddle Lite文档
](
https://paddle-lite.readthedocs.io/zh/latest/
)
> PaddleX --> Inference Model --> Paddle Lite Opt --> Paddle Lite Inference
...
...
@@ -18,8 +18,8 @@ PaddleX的安卓端部署由Paddle Lite实现,部署的流程如下,首先
目前提供了两种方法将Paddle模型优化为Paddle Lite模型:
-
1.python脚本优化模型,简单上手,目前支持最新的Paddle Lite 2.6.1版本
-
2.
bin文件优化模型(linux),支持develop版本(Commit Id:11cbd50e),适用于部署
`DeepLab模型`
和
`Unet模型`
的用户
。
-
1.
python脚本优化模型,简单上手,目前支持最新的Paddle Lite 2.6.1版本
-
2.
bin文件优化模型(linux),支持develop版本(Commit Id:11cbd50e),
**部署语义分割`DeepLab模型`和`Unet模型`时只能采用bin文件优化方式**
。
### 2.1 使用python脚本优化模型
...
...
@@ -33,7 +33,7 @@ python export_lite.py --model_dir /path/to/inference_model --save_file /path/to/
| ---- | ---- |
| --model_dir | 预测模型所在路径,包含"
\_\_
model
\_\_
", "
\_\_
params
\_\_
", "model.yml"文件 |
| --save_file | 模型输出的名称,假设为/path/to/lite_model_name, 则输出为路径为/path/to/lite_model_name.nb |
| --place | 运行的平台,可选:arm
\|
opencl
\|
x86
\|
npu
\|
xpu
\|
rknpu
\|
apu,安卓部署请选择
`arm`
|
| --place | 运行的平台,可选:arm
\|
opencl
\|
x86
\|
npu
\|
xpu
\|
rknpu
\|
apu,安卓部署请选择
arm
|
### 2.3 使用bin文件优化模型(linux)
...
...
@@ -58,7 +58,7 @@ python export_lite.py --model_dir /path/to/inference_model --save_file /path/to/
## 3. 移动端(Android)Demo
PaddleX提供了
一个基于Mobilenetv2模型和PaddleX Android SDK的安卓demo,可供用户体验,该demo位于
`/PaddleX/deploy/lite/android/demo`
,可直接导入Android Studio后运行,并支持用户替换
其他PaddleX导出的检测或分割模型进行预测。
PaddleX提供了
基于PaddleX Android SDK的安卓demo,位于
`/PaddleX/deploy/lite/android/demo`
,该demo已预置了MobilenetV2的模型参数,用户可直接将该demo导入Android Studio后运行体验,同时也支持用户将预置的Mobilenetv2模型参数替换成
其他PaddleX导出的检测或分割模型进行预测。
### 3.1 要求
...
...
@@ -83,14 +83,14 @@ PaddleX提供了一个基于Mobilenetv2模型和PaddleX Android SDK的安卓demo
-
将.nb文件拷贝到
`/src/main/assets/model/`
目录下, 根据.nb文件的名字,修改文件
`/src/main/res/values/strings.xml`
中的
`MODEL_PATH_DEFAULT`
;
-
将.yml文件拷贝到
`/src/main/assets/config/`
目录下,根据.yml文件的名字,修改文件
`/src/main/res/values/strings.xml`
中的
`YAML_PATH_DEFAULT`
;
-
可根据需要替换测试图片,将图片拷贝到
`/src/main/assets/images/`
目录下,根据图片文件的名字,修改文件
`/src/main/res/values/strings.xml`
中的
`IMAGE_PATH_DEFAULT`
;
-
点击菜单栏的Run->Run 'App'按钮,在弹出的"Select Deployment Target"窗口选择已经连接的Android设备,然后点击"OK"按钮;
-
将工程导入后,点击菜单栏的Run->Run 'App'按钮,在弹出的"Select Deployment Target"窗口选择已经连接的Android设备,然后点击"OK"按钮。
## 4. PaddleX Android SDK和二次开发
PaddleX Android SDK是PaddleX基于Paddle Lite开发的安卓端AI推理工具,以PaddleX导出的Yaml配置文件为接口,针对不同的模型实现图片的预处理,后处理,并进行可视化,开发者可集成到业务中。
该SDK自底向上主要包括:Paddle Lite推理引擎层,Paddle Lite接口层以及PaddleX业务层。
-
Paddle Lite推理引擎层,是在Android上编译好的二进制包,只涉及到Kernel 的执行,且可以单独部署,以支持极致
的
轻量级部署。
-
Paddle Lite推理引擎层,是在Android上编译好的二进制包,只涉及到Kernel 的执行,且可以单独部署,以支持极致轻量级部署。
-
Paddle Lite接口层,以Java接口封装了底层c++推理库。
-
PaddleX业务层,封装了PaddleX导出模型的预处理,推理和后处理,以及可视化,支持PaddleX导出的检测、分割、分类模型。
...
...
@@ -177,8 +177,8 @@ com.baidu.paddlex.postprocess.DetResult.Box
##### Fields
> * **categoryId** (int): 类别ID。
> * **category** (String): 类别名称。
> * **score** (float): 预测置信度。
> * **coordinate** (float[4]): 预测框
值:
{xmin, ymin, xmax, ymax}。
> * **score** (float): 预测
框的
置信度。
> * **coordinate** (float[4]): 预测框
的坐标值
{xmin, ymin, xmax, ymax}。
```
java
com
.
baidu
.
paddlex
.
postprocess
.
SegResult
...
...
@@ -195,9 +195,9 @@ com.baidu.paddlex.postprocess.SegResult.Mask
```
##### Fields
> * **scoreData** (float[]): 模型预测在各个类别的置信度,长度为: 1 * numClass * H * W
> * **scoreShape** (long[4]): scoreData的shape信息,[1,
numClass,H,
W]
> * **scoreShape** (long[4]): scoreData的shape信息,[1,
numClass, H,
W]
> * **labelData** (long[]): 模型预测置信度最高的label,长度为: 1 * H * W * 1
> * **labelShape** (long[4]): labelData的shape信息,[1,
H,W,
1]
> * **labelShape** (long[4]): labelData的shape信息,[1,
H, W,
1]
### 4.4 SDK二次开发
...
...
docs/deploy/paddlelite/slim/prune.md
浏览文件 @
67008bec
# 模型
裁剪
# 模型
剪裁
为了更好地满足端侧部署场景下
,低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,PaddleX通过集成PaddleSlim实现
`模型裁剪`
,可
提升Paddle Lite端侧部署性能。
为了更好地满足端侧部署场景下
低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,PaddleX通过集成PaddleSlim来实现模型剪裁功能,进一步
提升Paddle Lite端侧部署性能。
## 原理介绍
模型
裁剪通过裁剪卷积层中Kernel输出通道的大小及其关联层参数大小,来减小模型大小和降低模型计算复杂度,可以加快模型部署后的预测速度,其关联裁剪的原理可参见
[
PaddleSlim相关文档
](
https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#id16
)
。
**一般而言,在同等模型精度前提下,数据复杂度越低,模型可以被裁剪
的比例就越高**
。
模型
剪裁通过剪裁卷积层中Kernel输出通道的大小及其关联层参数大小,来减小模型大小和降低模型计算复杂度,可以加快模型部署后的预测速度,其关联剪裁的原理可参见
[
PaddleSlim相关文档
](
https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#id16
)
。
**一般而言,在同等模型精度前提下,数据复杂度越低,模型可以被剪裁
的比例就越高**
。
##
裁剪
方法
##
剪裁
方法
PaddleX提供了两种方式:
**1.用户自行计算裁剪配置(推荐),整体流程包含三个步骤,**
> **第一步**: 使用数据集训练原始模型
> **第二步**:利用第一步训练好的模型,在验证数据集上计算模型中各个参数的敏感度,并将敏感度信息存储至本地文件
> **第三步**:使用数据集训练裁剪模型(与第一步差异在于需要在`train`接口中,将第二步计算得到的敏感信息文件传给接口的`sensitivities_file`参数)
**1.用户自行计算剪裁配置(推荐),整体流程包含三个步骤**
> 在如上三个步骤中,**相当于模型共需要训练两遍**,分别对应第一步和第三步,但其中第三步训练的是裁剪后的模型,因此训练速度较第一步会更快。
> 第二步会遍历模型中的部分裁剪参数,分别计算各个参数裁剪后对于模型在验证集上效果的影响,**因此会反复在验证集上评估多次**。
*
**第一步**
: 使用数据集训练原始模型
*
**第二步**
:利用第一步训练好的模型,在验证数据集上计算模型中各个参数的敏感度,并将敏感度信息存储至本地文件
*
**第三步**
:使用数据集训练剪裁模型(与第一步差异在于需要在
`train`
接口中,将第二步计算得到的敏感信息文件传给接口的
`sensitivities_file`
参数)
**2.使用PaddleX内置的裁剪方案**
>
PaddleX内置的模型裁剪方案是**基于标准数据集**上计算得到的参数敏感度信息,由于不同数据集特征分布会有较大差异,所以该方案相较于第1种方案训练得到的模型**精度一般而言会更低**(**且用户自定义数据集与标准数据集特征分布差异越大,导致训练的模型精度会越低**),仅在用户想节省时间的前提下可以参考使用,使用方式只需一步,
> 以上三个步骤**相当于模型需要训练两遍**,第一遍和第二遍分别对应上面的第一步和第三步,但其中第三步训练的是剪裁后的模型,因此训练速度较第一步会更快。
>
上面的第二步会遍历模型中的部分剪裁参数,分别计算各个参数剪裁后对于模型在验证集上效果的影响,**因此会在验证集上评估多次**。
> **一步**: 使用数据集训练裁剪模型,在训练调用`train`接口时,将接口中的`sensitivities_file`参数设置为'DEFAULT'字符串
**2.使用PaddleX内置的剪裁方案**
> PaddleX内置的模型剪裁方案是**基于各任务常用的公开数据集**上计算得到的参数敏感度信息,由于不同数据集特征分布会有较大差异,所以该方案相较于第1种方案剪裁得到的模型**精度一般而言会更低**(**且用户自定义数据集与标准数据集特征分布差异越大,导致训练的模型精度会越低**),仅在用户想节省时间的前提下可以参考使用,使用方式只需一步,
>
注:各模型内置的裁剪方案分别依据的数据集为: 图像分类——ImageNet数据集、目标检测——PascalVOC数据集、语义分割——CityScape数据集
>
**一步**: 使用数据集训练剪裁模型,在训练调用`train`接口时,将接口中的`sensitivities_file`参数设置为`DEFAULT`字符串
## 裁剪实验
> 注:各模型内置的剪裁方案分别依据的公开数据集为: 图像分类——ImageNet数据集、目标检测——PascalVOC数据集、语义分割——CityScape数据集
## 剪裁实验
基于上述两种方案,我们在PaddleX上使用样例数据进行了实验,在Tesla P40上实验指标如下所示:
### 图像分类
实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据,
裁剪
训练代码见
[
tutorials/compress/classification
](
https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/compress/classification
)
实验背景:使用MobileNetV2模型,数据集为蔬菜分类示例数据,
剪裁
训练代码见
[
tutorials/compress/classification
](
https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/compress/classification
)
| 模型 |
裁剪
情况 | 模型大小 | Top1准确率(%) |GPU预测速度 | CPU预测速度 |
| 模型 |
剪裁
情况 | 模型大小 | Top1准确率(%) |GPU预测速度 | CPU预测速度 |
| :-----| :--------| :-------- | :---------- |:---------- |:----------|
|MobileNetV2 | 无
裁剪
(原模型)| 13.0M | 97.50|6.47ms |47.44ms |
|MobileNetV2 | 无
剪裁
(原模型)| 13.0M | 97.50|6.47ms |47.44ms |
|MobileNetV2 | 方案一(eval_metric_loss=0.10) | 2.1M | 99.58 |5.03ms |20.22ms |
|MobileNetV2 | 方案二(eval_metric_loss=0.10) | 6.0M | 99.58 |5.42ms |29.06ms |
### 目标检测
实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据,
裁剪
训练代码见
[
tutorials/compress/detection
](
https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/compress/detection
)
实验背景:使用YOLOv3-MobileNetV1模型,数据集为昆虫检测示例数据,
剪裁
训练代码见
[
tutorials/compress/detection
](
https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/compress/detection
)
| 模型 |
裁剪
情况 | 模型大小 | MAP(%) |GPU预测速度 | CPU预测速度 |
| 模型 |
剪裁
情况 | 模型大小 | MAP(%) |GPU预测速度 | CPU预测速度 |
| :-----| :--------| :-------- | :---------- |:---------- | :---------|
|YOLOv3-MobileNetV1 | 无
裁剪
(原模型)| 139M | 67.57| 14.88ms |976.42ms |
|YOLOv3-MobileNetV1 | 无
剪裁
(原模型)| 139M | 67.57| 14.88ms |976.42ms |
|YOLOv3-MobileNetV1 | 方案一(eval_metric_loss=0.10) | 34M | 75.49 |10.60ms |558.49ms |
|YOLOv3-MobileNetV1 | 方案二(eval_metric_loss=0.05) | 29M | 50.27| 9.43ms |360.46ms |
### 语义分割
实验背景:使用UNet模型,数据集为视盘分割示例数据,
裁剪
训练代码见
[
tutorials/compress/segmentation
](
https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/compress/segmentation
)
实验背景:使用UNet模型,数据集为视盘分割示例数据,
剪裁
训练代码见
[
tutorials/compress/segmentation
](
https://github.com/PaddlePaddle/PaddleX/tree/develop/tutorials/compress/segmentation
)
| 模型 |
裁剪
情况 | 模型大小 | mIOU(%) |GPU预测速度 | CPU预测速度 |
| 模型 |
剪裁
情况 | 模型大小 | mIOU(%) |GPU预测速度 | CPU预测速度 |
| :-----| :--------| :-------- | :---------- |:---------- | :---------|
|UNet | 无
裁剪
(原模型)| 77M | 91.22 |33.28ms |9523.55ms |
|UNet | 无
剪裁
(原模型)| 77M | 91.22 |33.28ms |9523.55ms |
|UNet | 方案一(eval_metric_loss=0.10) |26M | 90.37 |21.04ms |3936.20ms |
|UNet | 方案二(eval_metric_loss=0.10) |23M | 91.21 |18.61ms |3447.75ms |
docs/deploy/paddlelite/slim/quant.md
浏览文件 @
67008bec
# 模型量化
为了更好地满足端侧部署场景下
,低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,PaddleX通过集成PaddleSlim实现
`模型量化`
,可
提升Paddle Lite端侧部署性能。
为了更好地满足端侧部署场景下
低内存带宽、低功耗、低计算资源占用以及低模型存储等需求,PaddleX通过集成PaddleSlim来实现模型量化功能,进一步
提升Paddle Lite端侧部署性能。
## 原理介绍
定点量化使用更少的比特数(如8-bit、3-bit、2-bit等)表示神经网络的权重和激活值,从而加速模型推理速度。PaddleX提供了训练后量化技术,其原理可参见
[
训练后量化原理
](
https://paddlepaddle.github.io/PaddleSlim/algo/algo.html#id14
)
,该量化使用KL散度确定量化比例因子,将FP32模型转成INT8模型,且不需要重新训练,可以快速得到量化模型。
## 使用PaddleX量化模型
PaddleX提供了
`export_quant_model`
接口,让用户以接口的形式
完成模型以post_quantization方式量化并导出
。点击查看
[
量化接口使用文档
](
../../../apis/slim.html
)
。
PaddleX提供了
`export_quant_model`
接口,让用户以接口的形式
对训练后的模型进行量化
。点击查看
[
量化接口使用文档
](
../../../apis/slim.html
)
。
## 量化性能对比
模型量化后的性能对比指标请查阅
[
PaddleSlim模型库
](
https://paddlepaddle.github.io/PaddleSlim/model_zoo.html
)
docs/deploy/server/cpp/index.rst
浏览文件 @
67008bec
服务端
C++部署
C++部署
=======================================
...
...
docs/deploy/server/cpp/linux.md
浏览文件 @
67008bec
...
...
@@ -136,7 +136,7 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
可使用
[
小度熊识别模型
](
../../export_model.md
)
中导出的
`inference_model`
和测试图片进行预测,导出到/root/projects,模型路径为/root/projects/inference_model。
> 关于预测速度的说明:
Paddle在部署预测时,由于涉及到内存显存初始化等原因,在模型加载后刚开始预测速度会较慢,一般在模型运行20~50后(即预测20~30张图片)预测速度才会
稳定。
> 关于预测速度的说明:
加载模型后前几张图片的预测速度会较慢,这是因为运行启动时涉及到内存显存初始化等步骤,通常在预测20-30张图片后模型的预测速度达到
稳定。
`样例一`
:
...
...
docs/deploy/server/cpp/windows.md
浏览文件 @
67008bec
...
...
@@ -59,22 +59,17 @@ PaddlePaddle C++ 预测库针对是否使用GPU、是否支持TensorRT、以及
### Step4: 使用Visual Studio 2019直接编译CMake
1. 打开Visual Studio 2019 Community,点击`
继续但无需代码
`


2. 点击: `
文件
`->`
打开
`->`
CMake
`


选择C++预测代码所在路径(例如`
D:
\p
rojects
\P
addleX
\d
eploy
\c
pp
`),并打开`
CMakeList.txt
`:


3. 点击:`
项目
`->`
CMake设置
`


4. 点击`
浏览
`,分别设置编译选项指定`
CUDA
`、`
OpenCV
`、`
Paddle预测库
`的路径


依赖库路径的含义说明如下(带*表示仅在使用**GPU版本**预测库时指定, 其中CUDA库版本尽量与Paddle预测库的对齐,例如Paddle预测库是**使用9.0、10.0版本**编译的,则编译PaddleX预测代码时**不使用9.2、10.1等版本**CUDA库):
| 参数名 | 含义 |
...
...
@@ -86,14 +81,10 @@ PaddlePaddle C++ 预测库针对是否使用GPU、是否支持TensorRT、以及
**注意:**
1. 如果使用`
CPU
`版预测库,请把`
WITH_GPU
`的`
值
`去掉勾
2. 如果使用的是`
openblas
`版本,请把`
WITH_MKL
`的`
值
`去掉勾
3. Windows环境下编译会自动下载YAML,如果编译环境无法访问外网,可手动下载: [yaml-cpp.zip](https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip)
yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`
URL https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip
` 中的网址,改为下载文件的路径。
4. 如果需要使用模型加密功能,需要手动下载[Windows预测模型加密工具](https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip)。例如解压到D:/projects,解压后目录为D:/projects/paddlex-encryption。编译时需勾选WITH_EBNCRYPTION并且在ENCRTYPTION_DIR填入D:/projects/paddlex-encryption。


3. Windows环境下编译会自动下载YAML,如果编译环境无法访问外网,可手动下载: [yaml-cpp.zip](https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip)。YAML文件下载后无需解压,在`
cmake/yaml.cmake
`中将`
URL https://bj.bcebos.com/paddlex/deploy/deps/yaml-cpp.zip
` 中的网址,改为下载文件的路径。
4. 如果需要使用模型加密功能,需要手动下载[Windows预测模型加密工具](https://bj.bcebos.com/paddlex/tools/win/paddlex-encryption.zip)。例如解压到`
D:/projects
`,解压后目录为`
D:/projects/paddlex-encryption
`。编译时需勾选`
WITH_EBNCRYPTION
`并且在`
ENCRTYPTION_DIR
`填入`
D:/projects/paddlex-encryption
`。


**设置完成后**, 点击上图中`
保存并生成CMake缓存以加载变量
`。
5. 点击`
生成
`->`
全部生成
`
...
...
@@ -101,7 +92,7 @@ yaml-cpp.zip文件下载后无需解压,在cmake/yaml.cmake中将`URL https://
### Step5: 预测及可视化
**在加载模型前,请检查你的模型目录中文件应该包括`
model.yml
`、`
__model__
`和`
__params__
`三个文件。如若不满足这个条件,请参考[
模型导出为Inference文档
](../../export_model.md)将模型导出为部署格式。**
**在加载模型前,请检查你的模型目录中文件应该包括`
model.yml
`、`
__model__
`和`
__params__
`三个文件。如若不满足这个条件,请参考[
部署模型导出
](../../export_model.md)将模型导出为部署格式。**
上述`
Visual Studio 2019
`编译产出的可执行文件在`
out
\b
uild
\x
64-Release
`目录下,打开`
cmd
`,并切换到该目录:
...
...
@@ -119,7 +110,7 @@ cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
| image_list | 按行存储图片路径的.txt文件 |
| use_gpu | 是否使用 GPU 预测, 支持值为0或1(默认值为0) |
| gpu_id | GPU 设备ID, 默认值为0 |
| save_dir | 保存可视化结果的路径, 默认值为"output",classfier无该参数 |
| save_dir | 保存可视化结果的路径, 默认值为"output",class
i
fier无该参数 |
| key | 加密过程中产生的密钥信息,默认值为""表示加载的是未加密的模型 |
| batch_size | 预测的批量大小,默认为1 |
| thread_num | 预测的线程数,默认为cpu处理器个数 |
...
...
@@ -127,9 +118,10 @@ cd D:\projects\PaddleX\deploy\cpp\out\build\x64-Release
## 样例
可使用[小度熊识别模型](../../export_model.md)中导出的`
inference_model
`和测试图片进行预测, 例如导出到D:\projects,模型路径为D:\projects\inference_model。
可使用[小度熊识别模型](../../export_model.md)中导出的`
inference_model
`和测试图片进行预测, 例如导出到`
D:
\p
rojects
`,模型路径为`
D:
\p
rojects
\i
nference_model
`。
> 关于预测速度的说明:加载模型后前几张图片的预测速度会较慢,这是因为运行启动时涉及到内存显存初始化等步骤,通常在预测20-30张图片后模型的预测速度达到稳定。
> 关于预测速度的说明:Paddle在部署预测时,由于涉及到内存显存初始化等原因,在模型加载后刚开始预测速度会较慢,一般在模型运行20~50后(即预测20~30张图片)预测速度才会稳定。
### 样例一:(使用未加密的模型对单张图像做预测)
...
...
docs/deploy/server/encryption.md
浏览文件 @
67008bec
...
...
@@ -34,7 +34,7 @@ PaddleX提供一个轻量级的模型加密部署方案,通过PaddleX内置的
>
> 6)在模型解密环节根据加密后的文件读取相关的加密数据到内存中,对内存数据使用AES算法进行解密,注意解密时需要采用与加密时一致的加密算法和加密的模式,以及密钥的数据和长度,否则会导致解密后数据错误。
>
> 7)集成模型预测的C/C++库,在具体使用预测时一般涉及paddle::AnalysisConfig和paddle:Predictor,为了能够从内存数据中直接load解密后的模型明文数据(避免模型解密后创建临时文件),这里需要将AnalysisConfig的模型加载函数从SetModel替换为SetModelBuffer来实现从内存中加载模型数据。
> 7)集成模型预测的C/C++库,在具体使用预测时一般涉及paddle::AnalysisConfig和paddle:
:
Predictor,为了能够从内存数据中直接load解密后的模型明文数据(避免模型解密后创建临时文件),这里需要将AnalysisConfig的模型加载函数从SetModel替换为SetModelBuffer来实现从内存中加载模型数据。
需要注意的是,在本方案中,密钥集成在上层预测服务的代码中。故模型的安全强度等同于代码抵御逆向调试的强度。为了保护密钥和模型的安全,开发者还需对自己的应用进行加固保护。常见的应用加固手段有:代码混淆,二进制文件加壳 等等,亦或将加密机制更改为AES白盒加密技术来保护密钥。这类技术领域内有大量商业和开源产品可供选择,此处不一一赘述。
...
...
docs/deploy/server/python.md
浏览文件 @
67008bec
# Python部署
PaddleX已经集成了基于Python的高性能预测接口,在安装PaddleX后,可参照如下代码示例,进行预测。相关的接口文档可参考
[
paddlex.deploy
](
../../apis/deploy.md
)
PaddleX已经集成了基于Python的高性能预测接口,在安装PaddleX后,可参照如下代码示例,进行预测。
## 导出预测模型
可参考
[
模型导出
](
../export_model.md
)
将模型导出为inference格式的模型。
可参考
[
模型导出
](
../export_model.md
)
将模型导出为inference格式。
## 预测部署
> 点击下载测试图片 [xiaoduxiong_test_image.tar.gz](https://bj.bcebos.com/paddlex/datasets/xiaoduxiong_test_image.tar.gz)
预测接口说明可参考
[
paddlex.deploy
](
../../apis/deploy.md
)
点击下载测试图片
[
xiaoduxiong_test_image.tar.gz
](
https://bj.bcebos.com/paddlex/datasets/xiaoduxiong_test_image.tar.gz
)
*
单张图片预测
...
...
@@ -14,6 +19,7 @@ import paddlex as pdx
predictor = pdx.deploy.Predictor('./inference_model')
result = predictor.predict(image='xiaoduxiong_test_image/JPEGImages/WeChatIMG110.jpeg')
```
*
批量图片预测
```
...
...
@@ -24,7 +30,7 @@ image_list = ['xiaoduxiong_test_image/JPEGImages/WeChatIMG110.jpeg',
result = predictor.predict(image_list=image_list)
```
> 关于预测速度的说明:
采用Paddle的Predictor进行预测时,由于涉及到内存显存初始化等原因,在模型加载后刚开始预测速度会较慢,一般在模型运行20~50后(即预测20~30张图片)预测速度才会
稳定。
> 关于预测速度的说明:
加载模型后前几张图片的预测速度会较慢,这是因为运行启动时涉及到内存显存初始化等步骤,通常在预测20-30张图片后模型的预测速度达到
稳定。
## 预测性能对比
### 测试环境
...
...
@@ -34,7 +40,7 @@ result = predictor.predict(image_list=image_list)
-
PaddlePaddle 1.71
-
GPU: Tesla P40
-
AnalysisPredictor 指采用Python的高性能预测方式
-
Executor 指采用
paddlepaddle普通的p
ython预测方式
-
Executor 指采用
PaddlePaddle普通的P
ython预测方式
-
Batch Size均为1,耗时单位为ms/image,只计算模型运行时间,不包括数据的预处理和后处理
### 性能对比
...
...
docs/examples/meter_reader.md
浏览文件 @
67008bec
...
...
@@ -191,7 +191,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
2.
将
`PaddleX/examples/meter_reader/deploy/cpp`
下的
`meter_reader`
文件夹和
`CMakeList.txt`
拷贝至
`PaddleX/deploy/cpp`
目录下,拷贝之前可以将
`PaddleX/deploy/cpp`
下原本的
`CMakeList.txt`
做好备份。
3.
按照
[
Nvidia
-Jetson开发板部署
](
)中的Step2至Step3完成C++预测代码的编译。
3.
按照
[
Nvidia
Jetson开发板部署
](
../deploy/nvidia-jetson.md
)
中的Step2至Step3完成C++预测代码的编译。
4.
编译成功后,可执行程为
`build/meter_reader/meter_reader`
,其主要命令参数说明如下:
...
...
docs/gui/index.rst
浏览文件 @
67008bec
PaddleX GUI
=======================================
PaddleX GUI是基于PaddleX
开发实现的可视化模型训练套件,可以让开发者免去代码开发的步骤,通过点选式地操作就可以快速完成模型的训练开发。PaddleXGUI具有 **数据集可视化分析** 、**模型参数自动推荐** 、**跨平台使用** 三大特点
。
PaddleX GUI是基于PaddleX
实现的可视化开发客户端。开发者以点选、键入的方式快速体验深度学习模型开发的全流程。不仅可以作为您提升深度学习模型开发效率的工具,更可以作为您们应用PaddleX API搭建专属的行业软件/应用的示例参照
。
数据集可视化分析
| PaddleX支持导入常见的图像分类、目标检测、实例分割和语义分割数据集,并对数据集的样本分布,标注结果进行可视化展示,数据集的情况一目了然!
PaddleX GUI 当前提供Windows,Mac,Ubuntu三种版本一键绿色安装的方式。请至[飞桨官网](https://www.paddlepaddle.org.cn/)下载您需要的版本。
模型参数自动推荐
| 根据用户的电脑配置和数据集情况,自动推荐模型训练参数,免去用户查看文档,被各种参数所烦的忧心事!
功能简介
---------------------------------------
PaddleX GUI是PaddleX API的衍生品,它在集成API功能的基础上,额外提供了可视化分析、评估等附加功能,致力于为开发者带来极致顺畅的开发体验。其拥有以下独特的功能:
跨平台使用
| PaddleX GUI完全跨平台,支持Linux、Windows和Mac三大主流系统!
- **全流程打通**
PaddleX GUI覆盖深度学习模型开发必经的**数据处理**、**超参配置**、**模型训练及优化**、**模型发布**全流程,无需开发一行代码,即可得到高性深度学习推理模型。
- **数据集智能分析**
详细的数据结构说明,并提供**数据标签自动校验**。支持**可视化数据预览**、**数据分布图表展示**、**一键数据集切分**等实用功能
- **自动超参推荐**
集成飞桨团队长时间产业实践经验,根据用户选择的模型类别、骨架网络等,提供多种针对性优化的**预训练模型**,并**提供推荐超参配置**,可**一键开启多种优化策略**
- **可视化模型评估**
集成**可视化分析工具:VisualDL**, 以线性图表的形式展示acc、lr等关键参数在训练过程中的变化趋势。提供**混淆矩阵**等实用方法,帮助快速定位问题,加速调参。模型评估报告一键导出,方便项目复盘分析。
- **模型裁剪及量化**
一键启动模型裁剪、量化,在不同阶段为开发者提供模型优化的策略,满足不同环境对模型性能的需求。
- **预训练模型管理**
可对历史训练模型进行保存及管理,未进行裁剪的模型可以保存为预训练模型,在后续任务中使用。
- **可视化模型测试**
客户端直接展示模型预测效果,无需上线即可进行效果评估
- **模型多端部署**
点选式选择模型发布平台、格式,一键导出预测模型,并匹配完善的模型预测部署说明文档,贴心助力产业端到端项目落地
.. toctree::
:maxdepth: 2
:caption: 文档目录:
download.md
how_to_use.md
faq.md
* PaddleX GUI版本: v1.0
...
...
docs/train/instance_segmentation.md
浏览文件 @
67008bec
...
...
@@ -11,7 +11,7 @@ PaddleX目前提供了MaskRCNN实例分割模型结构,多种backbone模型,
| 模型(点击获取代码) | Box MMAP/Seg MMAP | 模型大小 | GPU预测速度 | Arm预测速度 | 备注 |
| :---------------- | :------- | :------- | :--------- | :--------- | :----- |
|
[
MaskRCNN-ResNet50-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/instance_segmentation/mask_rcnn_r50_fpn.py
)
| 38.7%/34.7% | 177.7MB | 160.185ms | - | 模型精度高,适用于服务端部署 |
|
[
MaskRCNN-ResNet18-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/instance_segmentation/mask_rcnn_r18_fpn.py
)
| 33.6
/30.5
| 189.1MB | - | - | 模型精度高,适用于服务端部署 |
|
[
MaskRCNN-ResNet18-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/instance_segmentation/mask_rcnn_r18_fpn.py
)
| 33.6
%/30.5%
| 189.1MB | - | - | 模型精度高,适用于服务端部署 |
|
[
MaskRCNN-HRNet-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/instance_segmentation/mask_rcnn_hrnet_fpn.py
)
| 38.7%/34.7% | 120.7MB | - | - | 模型精度高,预测速度快,适用于服务端部署 |
...
...
docs/train/object_detection.md
浏览文件 @
67008bec
...
...
@@ -12,7 +12,7 @@ PaddleX目前提供了FasterRCNN和YOLOv3两种检测结构,多种backbone模
| :---------------- | :------- | :------- | :--------- | :--------- | :----- |
|
[
YOLOv3-MobileNetV1
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/object_detection/yolov3_mobilenetv1.py
)
| 29.3% | 99.2MB | 15.442ms | - | 模型小,预测速度快,适用于低性能或移动端设备 |
|
[
YOLOv3-MobileNetV3
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/object_detection/yolov3_mobilenetv3.py
)
| 31.6% | 100.7MB | 143.322ms | - | 模型小,移动端上预测速度有优势 |
|
[
YOLOv3-DarkNet53
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/object_detection/yolov3_darknet53.py
)
| 38.9 | 249.2MB | 42.672ms | - | 模型较大,预测速度快,适用于服务端 |
|
[
YOLOv3-DarkNet53
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/object_detection/yolov3_darknet53.py
)
| 38.9
%
| 249.2MB | 42.672ms | - | 模型较大,预测速度快,适用于服务端 |
|
[
FasterRCNN-ResNet50-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/object_detection/faster_rcnn_r50_fpn.py
)
| 37.2% | 167.7MB | 197.715ms | - | 模型精度高,适用于服务端部署 |
|
[
FasterRCNN-ResNet18-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/object_detection/faster_rcnn_r18_fpn.py
)
| 32.6% | 173.2MB | - | - | 模型精度高,适用于服务端部署 |
|
[
FasterRCNN-HRNet-FPN
](
https://github.com/PaddlePaddle/PaddleX/blob/develop/tutorials/train/object_detection/faster_rcnn_hrnet_fpn.py
)
| 36.0% | 115.MB | 81.592ms | - | 模型精度高,预测速度快,适用于服务端部署 |
...
...
examples/meter_reader/README.md
浏览文件 @
67008bec
...
...
@@ -200,7 +200,7 @@ git clone https://github.com/PaddlePaddle/PaddleX
2.
将
`PaddleX/examples/meter_reader/deploy/cpp`
下的
`meter_reader`
文件夹和
`CMakeList.txt`
拷贝至
`PaddleX/deploy/cpp`
目录下,拷贝之前可以将
`PaddleX/deploy/cpp`
下原本的
`CMakeList.txt`
做好备份。
3.
按照
[
Nvidia
-Jetson开发板部署
](
)中的Step2至Step3完成C++预测代码的编译。
3.
按照
[
Nvidia
Jetson开发板部署
](
../../docs/deploy/nvidia-jetson.md
)
中的Step2至Step3完成C++预测代码的编译。
4.
编译成功后,可执行程为
`build/meter_reader/meter_reader`
,其主要命令参数说明如下:
...
...
paddlex/__init__.py
浏览文件 @
67008bec
...
...
@@ -56,4 +56,4 @@ log_level = 2
from
.
import
interpret
__version__
=
'1.1.
0
'
__version__
=
'1.1.
1
'
paddlex/cv/datasets/imagenet.py
浏览文件 @
67008bec
...
...
@@ -34,7 +34,7 @@ class ImageNet(Dataset):
num_workers (int|str): 数据集中样本在预处理过程中的线程或进程数。默认为'auto'。当设为'auto'时,根据
系统的实际CPU核数设置`num_workers`: 如果CPU核数的一半大于8,则`num_workers`为8,否则为CPU核
数的一半。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为
100
。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为
8
。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'process'(Windows和Mac下会强制使用thread,该参数无效)。
shuffle (bool): 是否需要对数据集中样本打乱顺序。默认为False。
...
...
paddlex/cv/datasets/seg_dataset.py
浏览文件 @
67008bec
...
...
@@ -31,7 +31,7 @@ class SegDataset(Dataset):
file_list (str): 描述数据集图片文件和对应标注文件的文件路径(文本内每行路径为相对data_dir的相对路)。
label_list (str): 描述数据集包含的类别信息文件路径。默认值为None。
transforms (list): 数据集中每个样本的预处理/增强算子。
num_workers (int): 数据集中样本在预处理过程中的线程或进程数。默认为
4
。
num_workers (int): 数据集中样本在预处理过程中的线程或进程数。默认为
'auto'
。
buffer_size (int): 数据集中样本在预处理过程中队列的缓存长度,以样本数为单位。默认为100。
parallel_method (str): 数据集中样本在预处理过程中并行处理的方式,支持'thread'
线程和'process'进程两种方式。默认为'process'(Windows和Mac下会强制使用thread,该参数无效)。
...
...
paddlex/cv/models/slim/prune.py
浏览文件 @
67008bec
...
...
@@ -34,8 +34,12 @@ def sensitivity(program,
param_names
,
eval_func
,
sensitivities_file
=
None
,
pruned_ratios
=
None
):
scope
=
fluid
.
global_scope
()
pruned_ratios
=
None
,
scope
=
None
):
if
scope
is
None
:
scope
=
fluid
.
global_scope
()
else
:
scope
=
scope
graph
=
GraphWrapper
(
program
)
sensitivities
=
load_sensitivities
(
sensitivities_file
)
...
...
@@ -256,7 +260,8 @@ def cal_params_sensitivities(model, save_file, eval_dataset, batch_size=8):
prune_names
,
eval_for_prune
,
sensitivities_file
=
save_file
,
pruned_ratios
=
list
(
np
.
arange
(
0.1
,
1
,
0.1
)))
pruned_ratios
=
list
(
np
.
arange
(
0.1
,
1
,
0.1
)),
scope
=
model
.
scope
)
return
sensitivitives
...
...
paddlex/tools/x2coco.py
浏览文件 @
67008bec
...
...
@@ -96,12 +96,13 @@ class LabelMe2COCO(X2COCO):
def
__init__
(
self
):
super
(
LabelMe2COCO
,
self
).
__init__
()
def
generate_images_field
(
self
,
json_info
,
image_id
):
def
generate_images_field
(
self
,
json_info
,
image_
file
,
image_
id
):
image
=
{}
image
[
"height"
]
=
json_info
[
"imageHeight"
]
image
[
"width"
]
=
json_info
[
"imageWidth"
]
image
[
"id"
]
=
image_id
+
1
json_info
[
"imagePath"
]
=
path_normalization
(
json_info
[
"imagePath"
])
json_img_path
=
path_normalization
(
json_info
[
"imagePath"
])
json_info
[
"imagePath"
]
=
osp
.
join
(
osp
.
split
(
json_img_path
)[
0
],
image_file
)
image
[
"file_name"
]
=
osp
.
split
(
json_info
[
"imagePath"
])[
-
1
]
return
image
...
...
@@ -152,7 +153,7 @@ class LabelMe2COCO(X2COCO):
with
open
(
json_file
,
mode
=
'r'
,
\
encoding
=
get_encoding
(
json_file
))
as
j
:
json_info
=
json
.
load
(
j
)
img_info
=
self
.
generate_images_field
(
json_info
,
image_id
)
img_info
=
self
.
generate_images_field
(
json_info
,
im
g_file
,
im
age_id
)
self
.
images_list
.
append
(
img_info
)
for
shapes
in
json_info
[
"shapes"
]:
object_id
=
object_id
+
1
...
...
@@ -360,6 +361,4 @@ class JingLing2COCO(X2COCO):
points
.
append
([
obj
[
"bndbox"
][
"xmax"
],
obj
[
"bndbox"
][
"ymin"
]])
self
.
annotations_list
.
append
(
self
.
generate_rectangle_anns_field
(
points
,
label
,
image_id
,
object_id
,
label_to_num
))
\ No newline at end of file
object_id
,
label_to_num
))
\ No newline at end of file
setup.py
浏览文件 @
67008bec
...
...
@@ -19,7 +19,7 @@ long_description = "PaddlePaddle Entire Process Development Toolkit"
setuptools
.
setup
(
name
=
"paddlex"
,
version
=
'1.1.
0
'
,
version
=
'1.1.
1
'
,
author
=
"paddlex"
,
author_email
=
"paddlex@baidu.com"
,
description
=
long_description
,
...
...
@@ -30,7 +30,8 @@ setuptools.setup(
setup_requires
=
[
'cython'
,
'numpy'
],
install_requires
=
[
"pycocotools;platform_system!='Windows'"
,
'pyyaml'
,
'colorama'
,
'tqdm'
,
'paddleslim==1.0.1'
,
'visualdl>=2.0.0b'
,
'paddlehub>=1.6.2'
'paddleslim==1.0.1'
,
'visualdl>=2.0.0b'
,
'paddlehub>=1.6.2'
,
'shapely>=1.7.0'
],
classifiers
=
[
"Programming Language :: Python :: 3"
,
...
...
tutorials/compress/README.md
浏览文件 @
67008bec
# 使用教程——模型压缩
本目录下整理了使用PaddleX进行模型
裁剪训练的代码,代码中均提供了数据的自动下载
,并使用单张GPU卡进行训练。
本目录下整理了使用PaddleX进行模型
剪裁训练的代码,代码均会自动下载数据
,并使用单张GPU卡进行训练。
PaddleX提供了两种
裁剪
训练方式,
1.
用户自行计算
裁剪
配置(推荐),整体流程为
PaddleX提供了两种
剪裁
训练方式,
1.
用户自行计算
剪裁
配置(推荐),整体流程为
> 1.使用数据训练原始模型;
> 2.使用第1步训练好的模型,在验证集上计算各个模型参数的敏感度,并将敏感信息保存至本地文件
> 3.再次使用数据训练原始模型,在训练时调用`train`接口时,传入第2步计算得到的参数敏感信息文件,
> 4.模型在训练过程中,会根据传入的参数敏感信息文件,对模型结构
裁剪
后,继续迭代训练
> 4.模型在训练过程中,会根据传入的参数敏感信息文件,对模型结构
剪裁
后,继续迭代训练
>
2.
使用PaddleX预先计算好的参数敏感度信息文件,整体流程为
> 1. 在训练调用
'train'
接口时,将`sensetivities_file`参数设为`DEFAULT`字符串
> 2. 在训练过程中,会自动下载PaddleX预先计算好的模型参数敏感度信息,并对模型结构
裁剪
,继而迭代训练
> 1. 在训练调用
`train`
接口时,将`sensetivities_file`参数设为`DEFAULT`字符串
> 2. 在训练过程中,会自动下载PaddleX预先计算好的模型参数敏感度信息,并对模型结构
剪裁
,继而迭代训练
上述两种方式,第1种方法相对比第2种方法少了两步(即用户训练原始模型+自行计算参数敏感度信息),
在实际实验证,第1种方法的精度会更高,裁剪的模型效果更好,因此在用户
时间和计算成本允许的前提下,更推荐使用第1种方法。
上述两种方式,第1种方法相对比第2种方法少了两步(即用户训练原始模型+自行计算参数敏感度信息),
实验验证第1种方法的精度会更高,剪裁的模型效果更好,因此在
时间和计算成本允许的前提下,更推荐使用第1种方法。
## 开始裁剪训练
## 开始剪裁训练
*
第1种方法,用户自行计算剪裁配置
1.
第1种方法,用户自行计算裁剪配置
```
# 训练模型
python classification/mobilenetv2.py
# 计算模型参数敏感度
python classification/cal_sensitivities_file.py --model_dir=output/mobilenetv2/best_model --save_file=./sensitivities.data
#
裁剪
训练
#
剪裁
训练
python classification/mobilenetv2.py --model_dir=output/mobilenetv2/best_model --sensitivities_file=./sensitivities.data --eval_metric_loss=0.05
```
2.
第2种方法,使用PaddleX预先计算好的参数敏感度文件
*
第2种方法,使用PaddleX预先计算好的参数敏感度文件
```
# 自动下载PaddleX预先在ImageNet上计算好的参数敏感度信息文件
python classification/mobilenetv2.py --sensitivities_file=DEFAULT --eval_metric_loss=0.05
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录