readme.md 11.7 KB
Newer Older
L
LDOUBLEV 已提交
1

M
MissPenguin 已提交
2
# 飞桨训推一体全流程(TIPC)
L
LDOUBLEV 已提交
3

M
MissPenguin 已提交
4 5
## 1. 简介

M
MissPenguin 已提交
6
飞桨除了基本的模型训练和预测,还提供了支持多端多平台的高性能推理部署工具。本文档提供了PaddleOCR中所有模型的飞桨训推一体全流程(Training and Inference Pipeline Criterion(TIPC))信息和测试工具,方便用户查阅每种模型的训练推理部署打通情况,并可以进行一键测试。
L
LDOUBLEV 已提交
7

M
MissPenguin 已提交
8
<div align="center">
M
MissPenguin 已提交
9
    <img src="docs/guide.png" width="1000">
M
MissPenguin 已提交
10
</div>
L
LDOUBLEV 已提交
11

M
MissPenguin 已提交
12 13
## 2. 汇总信息

M
MissPenguin 已提交
14
打通情况汇总如下,已填写的部分表示可以使用本工具进行一键测试,未填写的表示正在支持中。
L
LDOUBLEV 已提交
15

M
MissPenguin 已提交
16
**字段说明:**
M
MissPenguin 已提交
17
- 基础训练预测:包括模型训练、Paddle Inference Python预测。
M
MissPenguin 已提交
18
- 更多训练方式:包括多机多卡、混合精度。
M
MissPenguin 已提交
19 20 21
- 模型压缩:包括裁剪、离线/在线量化、蒸馏。
- 其他预测部署:包括Paddle Inference C++预测、Paddle Serving部署、Paddle-Lite部署等。

M
MissPenguin 已提交
22 23 24
更详细的mkldnn、Tensorrt等预测加速相关功能的支持情况可以查看各测试工具的[更多教程](#more)

| 算法论文 | 模型名称 | 模型类型 | 基础<br>训练预测 | 更多<br>训练方式 | 模型压缩 |  其他预测部署  |
M
MissPenguin 已提交
25
| :--- | :--- |  :----:  | :--------: |  :----  |   :----  |   :----  |
26 27 28 29
| DB     |ch_ppocr_mobile_v2.0_det | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ <br> Paddle-Lite: <br> (1) ARM CPU(C++) |
| DB     |ch_ppocr_mobile_v2.0_det_FPGM | 检测  | 支持 | 多机多卡 <br> 混合精度 | FPGM裁剪 | Paddle Inference: C++ <br> Paddle Serving: Python, C++ <br> Paddle-Lite: <br> (1) ARM CPU(C++) |
| DB     |ch_ppocr_mobile_v2.0_det_PACT | 检测  | 支持 | 多机多卡 <br> 混合精度 | PACT量化 | Paddle Inference: C++ <br> Paddle Serving: Python, C++ <br> Paddle-Lite: <br> (1) ARM CPU(C++) |
| DB     |ch_ppocr_mobile_v2.0_det_KL | 检测  | 支持 | 多机多卡 <br> 混合精度 | 离线量化| Paddle Inference: C++ <br> Paddle Serving: Python, C++ <br> Paddle-Lite: <br> (1) ARM CPU(C++) |
M
fix  
MissPenguin 已提交
30
| DB     |ch_ppocr_server_v2.0_det | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ |
M
MissPenguin 已提交
31
| DB     |ch_PP-OCRv2_det          | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ |
32
| CRNN   |ch_ppocr_mobile_v2.0_rec | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ <br> Paddle-Lite: <br> (1) ARM CPU(C++) |
M
fix  
MissPenguin 已提交
33
| CRNN   |ch_ppocr_server_v2.0_rec | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ |
M
MissPenguin 已提交
34
| CRNN   |ch_PP-OCRv2_rec          | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ |
M
MissPenguin 已提交
35
| PP-OCR |ch_ppocr_mobile_v2.0 | 检测+识别  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ <br> Paddle-Lite: <br> (1) ARM CPU(C++) |
M
fix  
MissPenguin 已提交
36
| PP-OCR |ch_ppocr_server_v2.0 | 检测+识别  | 支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ |
M
MissPenguin 已提交
37
|PP-OCRv2|ch_PP-OCRv2 | 检测+识别  |  支持 | 多机多卡 <br> 混合精度 | - | Paddle Inference: C++ <br> Paddle Serving: Python, C++ |
M
MissPenguin 已提交
38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56
| DB     |det_mv3_db_v2.0                | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| DB     |det_r50_vd_db_v2.0             | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| EAST   |det_mv3_east_v2.0              | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| EAST   |det_r50_vd_east_v2.0           | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| PSENet |det_mv3_pse_v2.0               | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| PSENet |det_r50_vd_pse_v2.0            | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| SAST   |det_r50_vd_sast_totaltext_v2.0 | 检测  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| Rosetta|rec_mv3_none_none_ctc_v2.0     | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| Rosetta|rec_r34_vd_none_none_ctc_v2.0  | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| CRNN   |rec_mv3_none_bilstm_ctc_v2.0   | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| CRNN   |rec_r34_vd_none_bilstm_ctc_v2.0| 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| StarNet|rec_mv3_tps_bilstm_ctc_v2.0    | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| StarNet|rec_r34_vd_tps_bilstm_ctc_v2.0 | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| RARE   |rec_mv3_tps_bilstm_att_v2.0    | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| RARE   |rec_r34_vd_tps_bilstm_att_v2.0 | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| SRN    |rec_r50fpn_vd_none_srn         | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| NRTR   |rec_mtb_nrtr                   | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| SAR    |rec_r31_sar                    | 识别  | 支持 | 多机多卡 <br> 混合精度 | - | - |
| PGNet  |rec_r34_vd_none_none_ctc_v2.0  | 端到端| 支持 | 多机多卡 <br> 混合精度 | - | - |
M
MissPenguin 已提交
57 58


M
MissPenguin 已提交
59

M
fix  
MissPenguin 已提交
60
## 3. 测试工具简介
M
MissPenguin 已提交
61
### 目录介绍
L
LDOUBLEV 已提交
62

M
MissPenguin 已提交
63
```shell
M
MissPenguin 已提交
64
test_tipc/
M
MissPenguin 已提交
65
├── configs/  # 配置文件目录
M
fix  
MissPenguin 已提交
66 67
    ├── ch_ppocr_mobile_v2.0_det    # ch_ppocr_mobile_v2.0_det模型的测试配置文件目录
        ├── train_infer_python.txt      # 测试Linux上python训练预测(基础训练预测)的配置文件
M
MissPenguin 已提交
68 69 70
        ├── model_linux_gpu_normal_normal_infer_cpp_linux_gpu_cpu.txt     # 测试Linux上c++预测的配置文件
        ├── model_linux_gpu_normal_normal_infer_python_jetson.txt         # 测试Jetson上python预测的配置文件
        ├── train_linux_gpu_fleet_amp_infer_python_linux_gpu_cpu.txt      # 测试Linux上多机多卡、混合精度训练和python预测的配置文件
fanruinet's avatar
fanruinet 已提交
71
        ├── ...
M
fix  
MissPenguin 已提交
72
    ├── ch_ppocr_server_v2.0_det               # ch_ppocr_server_v2.0_det模型的测试配置文件目录
fanruinet's avatar
fanruinet 已提交
73
        ├── ...
M
fix  
MissPenguin 已提交
74
    ├── ch_ppocr_mobile_v2.0_rec               # ch_ppocr_mobile_v2.0_rec模型的测试配置文件目录
fanruinet's avatar
fanruinet 已提交
75
        ├── ...
M
fix  
MissPenguin 已提交
76
    ├── ch_ppocr_server_v2.0_det               # ch_ppocr_server_v2.0_det模型的测试配置文件目录
fanruinet's avatar
fanruinet 已提交
77 78
        ├── ...
    ├── ...
M
MissPenguin 已提交
79
├── results/   # 预先保存的预测结果,用于和实际预测结果进行精读比对
M
MissPenguin 已提交
80 81 82 83 84
    ├── python_ppocr_det_mobile_results_fp32.txt           # 预存的mobile版ppocr检测模型python预测fp32精度的结果
    ├── python_ppocr_det_mobile_results_fp16.txt           # 预存的mobile版ppocr检测模型python预测fp16精度的结果
    ├── cpp_ppocr_det_mobile_results_fp32.txt       # 预存的mobile版ppocr检测模型c++预测的fp32精度的结果
    ├── cpp_ppocr_det_mobile_results_fp16.txt       # 预存的mobile版ppocr检测模型c++预测的fp16精度的结果
    ├── ...
M
MissPenguin 已提交
85 86 87 88
├── prepare.sh                        # 完成test_*.sh运行所需要的数据和模型下载
├── test_train_inference_python.sh    # 测试python训练预测的主程序
├── test_inference_cpp.sh             # 测试c++预测的主程序
├── test_serving.sh                   # 测试serving部署预测的主程序
M
refine  
MissPenguin 已提交
89
├── test_lite_arm_cpu_cpp.sh          # 测试lite在arm_cpu上部署的C++预测的主程序
M
MissPenguin 已提交
90 91
├── compare_results.py                # 用于对比log中的预测结果与results中的预存结果精度误差是否在限定范围内
└── readme.md                         # 使用文档
M
MissPenguin 已提交
92
```
L
LDOUBLEV 已提交
93

M
refine  
MissPenguin 已提交
94 95 96 97 98 99 100 101 102 103 104
### 测试流程概述

使用本工具,可以测试不同功能的支持情况,以及预测结果是否对齐,测试流程概括如下:
<div align="center">
    <img src="docs/test.png" width="800">
</div>

1. 运行prepare.sh准备测试所需数据和模型;
2. 运行要测试的功能对应的测试脚本`test_*.sh`,产出log,由log可以看到不同配置是否运行成功;
3.`compare_results.py`对比log中的预测结果和预存在results目录下的结果,判断预测精度是否符合预期(在误差范围内)。

M
MissPenguin 已提交
105
测试单项功能仅需两行命令,**如需测试不同模型/功能,替换配置文件即可**,命令格式如下:
M
refine  
MissPenguin 已提交
106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121
```shell
# 功能:准备数据
# 格式:bash + 运行脚本 + 参数1: 配置文件选择 + 参数2: 模式选择
bash test_tipc/prepare.sh  configs/[model_name]/[params_file_name]  [Mode]

# 功能:运行测试
# 格式:bash + 运行脚本 + 参数1: 配置文件选择 + 参数2: 模式选择
bash test_tipc/test_train_inference_python.sh configs/[model_name]/[params_file_name]  [Mode]
```

例如,测试基本训练预测功能的`lite_train_lite_infer`模式,运行:
```shell
# 准备数据
bash test_tipc/prepare.sh ./test_tipc/configs/ch_ppocr_mobile_v2.0_det/train_infer_python.txt 'lite_train_lite_infer'
# 运行测试
bash test_tipc/test_train_inference_python.sh ./test_tipc/configs/ch_ppocr_mobile_v2.0_det/train_infer_python.txt 'lite_train_lite_infer'
fanruinet's avatar
fanruinet 已提交
122
```
M
MissPenguin 已提交
123
关于本示例命令的更多信息可查看[基础训练预测使用文档](https://github.com/PaddlePaddle/PaddleOCR/blob/dygraph/test_tipc/docs/test_train_inference_python.md#22-%E5%8A%9F%E8%83%BD%E6%B5%8B%E8%AF%95)
M
refine  
MissPenguin 已提交
124

M
MissPenguin 已提交
125
### 配置文件命名规范
M
fix  
MissPenguin 已提交
126
`configs`目录下,**按模型名称划分为子目录**,子目录中存放所有该模型测试需要用到的配置文件,配置文件的命名遵循如下规范:
M
MissPenguin 已提交
127

M
fix  
MissPenguin 已提交
128
1. 基础训练预测配置简单命名为:`train_infer_python.txt`,表示**Linux环境下单机、不使用混合精度训练+python预测**,其完整命名对应`train_linux_gpu_normal_normal_infer_python_linux_gpu_cpu.txt`,由于本配置文件使用频率较高,这里进行了名称简化。
M
MissPenguin 已提交
129

M
fix  
MissPenguin 已提交
130
2. 其他带训练配置命名格式为:`train_训练硬件环境(linux_gpu/linux_dcu/…)_是否多机(fleet/normal)_是否混合精度(amp/normal)_预测模式(infer/lite/serving/js)_语言(cpp/python/java)_预测硬件环境(linux_gpu/mac/jetson/opencl_arm_gpu/...).txt`。如,linux gpu下多机多卡+混合精度链条测试对应配置 `train_linux_gpu_fleet_amp_infer_python_linux_gpu_cpu.txt`,linux dcu下基础训练预测对应配置 `train_linux_dcu_normal_normal_infer_python_linux_dcu.txt`
M
MissPenguin 已提交
131

M
MissPenguin 已提交
132
3. 仅预测的配置(如serving、lite等)命名格式:`model_训练硬件环境(linux_gpu/linux_dcu/…)_是否多机(fleet/normal)_是否混合精度(amp/normal)_(infer/lite/serving/js)_语言(cpp/python/java)_预测硬件环境(linux_gpu/mac/jetson/opencl_arm_gpu/...).txt`,即,与2相比,仅第一个字段从train换为model,测试时模型直接下载获取,这里的“训练硬件环境”表示所测试的模型是在哪种环境下训练得到的。
M
MissPenguin 已提交
133

M
MissPenguin 已提交
134
**根据上述命名规范,可以直接从子目录名称和配置文件名找到需要测试的场景和功能对应的配置文件。**
M
MissPenguin 已提交
135

D
DanielYang 已提交
136

M
MissPenguin 已提交
137
<a name="more"></a>
M
refine  
MissPenguin 已提交
138
## 4. 开始测试
fanruinet's avatar
fanruinet 已提交
139 140
各功能测试中涉及混合精度、裁剪、量化等训练相关,及mkldnn、Tensorrt等多种预测相关参数配置,请点击下方相应链接了解更多细节和使用教程:
- [test_train_inference_python 使用](docs/test_train_inference_python.md) :测试基于Python的模型训练、评估、推理等基本功能,包括裁剪、量化、蒸馏。
M
refine  
MissPenguin 已提交
141 142
- [test_inference_cpp 使用](docs/test_inference_cpp.md):测试基于C++的模型推理。
- [test_serving 使用](docs/test_serving.md):测试基于Paddle Serving的服务化部署功能。
fanruinet's avatar
fanruinet 已提交
143
- [test_lite_arm_cpp 使用](docs/test_lite_arm_cpp.md):测试基于Paddle-Lite的ARM CPU端c++预测部署功能。
M
refine  
MissPenguin 已提交
144
- [test_paddle2onnx 使用](docs/test_paddle2onnx.md):测试Paddle2ONNX的模型转化功能,并验证正确性。