README.md 4.0 KB
Newer Older
1 2
# PaddleSeg Python 预测部署方案

B
Bin Long 已提交
3 4
## 1. 说明
本方案旨在提供一个`PaddlePaddle`跨平台图像分割模型的`Python`预测部署方案作为参考,用户通过一定的配置,加上少量的代码,即可把模型集成到自己的服务中,完成图像分割的任务。
5

B
Bin Long 已提交
6
如果**硬件支持**(如`Tesla V100 GPU`等),本程序支持使用`Nvidia TensorRT`进行`FP32``FP16`两种精度进行推理性能加速。
7

B
Bin Long 已提交
8 9
## 2. 依赖前置条件
* Python2.7/Python3
10

B
Bin Long 已提交
11
## 3. 目录结构和文件说明
12 13 14 15 16 17
```
├── infer.py #  核心代码,完成分割模型的预测以及结果可视化
├── requirements.txt # 依赖的Python包
└── README.md # 说明文档
```

B
Bin Long 已提交
18 19
## 4. 环境安装和准备
### 4.1 安装 PaddlePaddle
20 21 22

如何选择合适版本的`PaddlePaddle`版本进行安装,可参考: [PaddlePaddle安装教程](https://www.paddlepaddle.org.cn/install/doc/)

S
sjtubinlong 已提交
23
**注意**: 如硬件支持且需要使用`TensorRT`支持`FP16`半精度优化等, 则**本步骤**需要自行安装`TensorRT`并编译`PaddlePaddle`, 点击查看[编译安装参考文档](docs/compile_paddle_with_tensorrt.md)
24

B
Bin Long 已提交
25 26
### 4.2:安装Python依赖包
**当前**目录下, 使用`pip`安装`Python`依赖包
27 28 29
```bash
pip install -r requirements.txt
```
B
Bin Long 已提交
30
### 4.3 安装`OpenCV` 相关依赖库
31 32 33 34 35 36 37 38 39 40 41 42
预测代码中需要使用`OpenCV`,所以还需要`OpenCV`安装相关的动态链接库。

`Ubuntu`下安装相关链接库:
```bash
apt-get install -y libglib2.0-0 libsm6 libxext6 libxrender-dev
```

CentOS 下安装相关链接库:
```bash
yum install -y libXext libSM libXrender
```

B
Bin Long 已提交
43 44 45 46 47 48 49 50 51 52 53
## 5. 开始预测
### 5.1 准备模型
请使用[模型导出工具](../../docs/model_export.md) 导出您的模型, 或点击下载我们的[人像分割样例模型](https://bj.bcebos.com/paddleseg/inference/human_freeze_model.zip)用于测试。

模型导出的目录通常包括三个文件: 
```
├── model #  模型文件
├── params # 参数文件
└── deploy.yaml # 配置文件,用于C++或Python预测
```
配置文件的主要字段及其含义如下:
54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78
```yaml
DEPLOY:
    # 是否使用GPU预测
    USE_GPU: 1
    # 模型和参数文件所在目录路径
    MODEL_PATH: "/root/projects/models/deeplabv3p_xception65_humanseg"
    # 模型文件名
    MODEL_FILENAME: "__model__"
    # 参数文件名
    PARAMS_FILENAME: "__params__"
    # 预测图片的的标准输入尺寸,输入尺寸不一致会做resize
    EVAL_CROP_SIZE: (513, 513)
    # 均值
    MEAN: [0.5, 0.5, 0.5]
    # 方差
    STD: [0.5, 0.5, 0.5]
    # 分类类型数
    NUM_CLASSES: 2
    # 图片通道数
    CHANNELS : 3
    # 预测模式,支持 NATIVE 和 ANALYSIS
    PREDICTOR_MODE: "ANALYSIS"
    # 每次预测的 batch_size
    BATCH_SIZE : 3
```
B
Bin Long 已提交
79 80 81
### 5.2 执行预测程序
在终端输入以下命令进行预测:
```bash
B
Bin Long 已提交
82
python infer.py --conf=/path/to/deploy.yaml --input_dir/path/to/images_directory
83 84 85 86 87
```
参数说明如下:

| 参数 | 是否必须|含义 |
|-------|-------|----------|
B
Bin Long 已提交
88 89
| conf | Yes|模型配置的Yaml文件路径 |
| input_dir |Yes| 需要预测的图片目录 |
B
Bin Long 已提交
90
| use_pr |No|是否使用新版优化模型,默认为True|
91

B
Bin Long 已提交
92
* 优化模型:使用`PaddleSeg 0.3.0`版导出的为优化模型, 此前版本导出的模型即为未优化版本需要设置`--use_pr=False`。优化模型把图像的预处理以及后处理部分融入到模型网络中使用`GPU` 完成,相比原来`CPU` 中的处理提升了计算性能。
93

S
sjtubinlong 已提交
94 95
**注意**: 如果硬件支持且安装的是从源码编译集成`TensorRT``PaddlePaddle`, 则可以使用参数`--trt_mode=fp16` 表示开启`FP16` 精度优化, 使用`trt_mode=fp32` 表示使用`FP32` 精度。

B
Bin Long 已提交
96
运行后程序会扫描`input_dir` 目录下所有指定格式图片,并生成`预测mask``可视化的结果`
97 98 99 100 101 102 103 104

对于图片`a.jpeg`, `预测mask` 存在`a_jpeg.png` 中,而可视化结果则在`a_jpeg_result.png` 中。

输入样例:
![avatar](../cpp/images/humanseg/demo2.jpeg)

输出结果:  
![avatar](../cpp/images/humanseg/demo2.jpeg_result.png)