paddle_hub_serving_deploy.md 7.8 KB
Newer Older
S
sibo2rr 已提交
1
# 基于 PaddleHub Serving 的服务部署
2

C
cuicheng01 已提交
3
PaddleClas 支持通过 PaddleHub 快速进行服务化部署。目前支持图像分类的部署,图像识别的部署敬请期待。
4 5 6

---

C
cuicheng01 已提交
7 8

## 目录
S
sibo2rr 已提交
9 10 11 12 13 14
- [1. 简介](#1)
- [2. 准备环境](#2)
- [3. 下载推理模型](#3)
- [4. 安装服务模块](#4)
- [5. 启动服务](#5)
    - [5.1 命令行命令启动](#5.1)
C
cuicheng01 已提交
15
    - [5.2 配置文件启动](#5.2)
S
sibo2rr 已提交
16 17
- [6. 发送预测请求](#6)
- [7. 自定义修改服务模块](#7)
G
gaotingquan 已提交
18 19


C
cuicheng01 已提交
20
<a name="1"></a>
21 22 23 24 25 26 27 28 29 30 31 32
## 1. 简介

hubserving 服务部署配置服务包 `clas` 下包含 3 个必选文件,目录如下:

```
hubserving/clas/
  └─  __init__.py    空文件,必选
  └─  config.json    配置文件,可选,使用配置启动服务时作为参数传入
  └─  module.py      主模块,必选,包含服务的完整逻辑
  └─  params.py      参数文件,必选,包含模型路径、前后处理参数等参数
```

C
cuicheng01 已提交
33 34

<a name="2"></a>
35 36
## 2. 准备环境
```shell
S
sibo2rr 已提交
37
# 安装 paddlehub,请安装 2.0 版本
38 39 40
pip3 install paddlehub==2.1.0 --upgrade -i https://pypi.tuna.tsinghua.edu.cn/simple
```

C
cuicheng01 已提交
41 42

<a name="3"></a>
43 44 45 46 47 48 49 50 51 52 53 54 55 56
## 3. 下载推理模型

安装服务模块前,需要准备推理模型并放到正确路径,默认模型路径为:

* 分类推理模型结构文件:`PaddleClas/inference/inference.pdmodel`
* 分类推理模型权重文件:`PaddleClas/inference/inference.pdiparams`

**注意**
* 模型文件路径可在 `PaddleClas/deploy/hubserving/clas/params.py` 中查看和修改:

  ```python
  "inference_model_dir": "../inference/"
  ```
需要注意,
57
  * 模型文件(包括 `.pdmodel``.pdiparams`)名称必须为 `inference`
G
gaotingquan 已提交
58
  * 我们也提供了大量基于 ImageNet-1k 数据集的预训练模型,模型列表及下载地址详见[模型库概览](../algorithm_introduction/ImageNet_models.md),也可以使用自己训练转换好的模型。
59

C
cuicheng01 已提交
60 61

<a name="4"></a>
62 63 64 65
## 4. 安装服务模块

针对 Linux 环境和 Windows 环境,安装命令如下。

S
sibo2rr 已提交
66
* 在 Linux 环境下,安装示例如下:
67 68 69 70 71 72
```shell
cd PaddleClas/deploy
# 安装服务模块:
hub install hubserving/clas/
```

S
sibo2rr 已提交
73
* 在 Windows 环境下(文件夹的分隔符为`\`),安装示例如下:
74 75 76 77 78 79 80

```shell
cd PaddleClas\deploy
# 安装服务模块:  
hub install hubserving\clas\
```

C
cuicheng01 已提交
81 82

<a name="5"></a>
83 84
## 5. 启动服务

C
cuicheng01 已提交
85 86

<a name="5.1"></a>
87 88 89 90 91 92 93 94 95 96 97 98 99 100
### 5.1 命令行命令启动

该方式仅支持使用 CPU 预测。启动命令:

```shell
$ hub serving start --modules Module1==Version1 \
                    --port XXXX \
                    --use_multiprocess \
                    --workers \
```  

**参数说明**:
|参数|用途|  
|-|-|  
S
sibo2rr 已提交
101 102 103
|--modules/-m| [**必选**] PaddleHub Serving 预安装模型,以多个 Module==Version 键值对的形式列出<br>*`当不指定 Version 时,默认选择最新版本`*|  
|--port/-p| [**可选**] 服务端口,默认为 8866|  
|--use_multiprocess| [**可选**] 是否启用并发方式,默认为单进程方式,推荐多核 CPU 机器使用此方式<br>*`Windows 操作系统只支持单进程方式`*|
104
|--workers| [**可选**] 在并发方式下指定的并发任务数,默认为 `2*cpu_count-1`,其中 `cpu_count` 为 CPU 核数|  
105 106 107 108 109

如按默认参数启动服务:```hub serving start -m clas_system```  

这样就完成了一个服务化 API 的部署,使用默认端口号 8866。

C
cuicheng01 已提交
110 111

<a name="5.2"></a>
112 113 114 115 116 117
### 5.2 配置文件启动

该方式仅支持使用 CPU 或 GPU 预测。启动命令:

```hub serving start -c config.json```  

118
其中,`config.json` 格式如下:
119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139

```json
{
    "modules_info": {
        "clas_system": {
            "init_args": {
                "version": "1.0.0",
                "use_gpu": true,
                "enable_mkldnn": false
            },
            "predict_args": {
            }
        }
    },
    "port": 8866,
    "use_multiprocess": false,
    "workers": 2
}
```

**参数说明**:
140 141 142 143
* `init_args` 中的可配参数与 `module.py` 中的 `_initialize` 函数接口一致。其中,
  - 当 `use_gpu` 为 `true` 时,表示使用 GPU 启动服务。
  - 当 `enable_mkldnn` 为 `true` 时,表示使用 MKL-DNN 加速。
* `predict_args` 中的可配参数与 `module.py` 中的 `predict` 函数接口一致。
144 145 146

**注意**:
* 使用配置文件启动服务时,将使用配置文件中的参数设置,其他命令行参数将被忽略;
147
* 如果使用 GPU 预测(即,`use_gpu` 置为 `true`),则需要在启动服务之前,设置 `CUDA_VISIBLE_DEVICES` 环境变量来指定所使用的 GPU 卡号,如:`export CUDA_VISIBLE_DEVICES=0`;
148 149 150
* **`use_gpu` 不可与 `use_multiprocess` 同时为 `true`**;
* **`use_gpu` 与 `enable_mkldnn` 同时为 `true` 时,将忽略 `enable_mkldnn`,而使用 GPU**。

S
sibo2rr 已提交
151
如使用 GPU 3 号卡启动服务:
152 153 154 155 156 157 158

```shell
cd PaddleClas/deploy
export CUDA_VISIBLE_DEVICES=3
hub serving start -c hubserving/clas/config.json
```

C
cuicheng01 已提交
159
<a name="6"></a>
160 161 162 163 164 165 166 167 168 169 170 171 172
## 6. 发送预测请求

配置好服务端后,可使用以下命令发送预测请求,获取预测结果:

```shell
cd PaddleClas/deploy
python hubserving/test_hubserving.py server_url image_path
```  

**脚本参数说明**:
* **server_url**:服务地址,格式为  
`http://[ip_address]:[port]/predict/[module_name]`  
* **image_path**:测试图像路径,可以是单张图片路径,也可以是图像集合目录路径。
173 174 175 176 177
* **batch_size**:[**可选**] 以 `batch_size` 大小为单位进行预测,默认为 `1`。
* **resize_short**:[**可选**] 预处理时,按短边调整大小,默认为 `256`。
* **crop_size**:[**可选**] 预处理时,居中裁剪的大小,默认为 `224`。
* **normalize**:[**可选**] 预处理时,是否进行 `normalize`,默认为 `True`。
* **to_chw**:[**可选**] 预处理时,是否调整为 `CHW` 顺序,默认为 `True`。
178

179
**注意**:如果使用 `Transformer` 系列模型,如 `DeiT_***_384`, `ViT_***_384` 等,请注意模型的输入数据尺寸,需要指定`--resize_short=384 --crop_size=384`。
180 181 182 183 184 185 186 187 188 189 190 191

访问示例:

```shell
python hubserving/test_hubserving.py --server_url http://127.0.0.1:8866/predict/clas_system --image_file ./hubserving/ILSVRC2012_val_00006666.JPEG --batch_size 8
```

**返回结果格式说明**:
返回结果为列表(list),包含 top-k 个分类结果,以及对应的得分,还有此图片预测耗时,具体如下:
```
list: 返回结果
└─ list: 第一张图片结果
S
sibo2rr 已提交
192 193
   └─ list: 前 k 个分类结果,依 score 递减排序
   └─ list: 前 k 个分类结果对应的 score,依 score 递减排序
194 195 196
   └─ float: 该图分类耗时,单位秒
```

C
cuicheng01 已提交
197 198

<a name="7"></a>
199 200 201 202 203 204 205
## 7. 自定义修改服务模块

如果需要修改服务逻辑,需要进行以下操作:  

1. 停止服务  
```hub serving stop --port/-p XXXX```  

206
2. 到相应的 `module.py` 和 `params.py` 等文件中根据实际需求修改代码。`module.py` 修改后需要重新安装(`hub install hubserving/clas/`)并部署。在进行部署前,可通过 `python hubserving/clas/module.py` 测试已安装服务模块。
207 208 209 210 211 212 213 214 215 216 217

3. 卸载旧服务包  
```hub uninstall clas_system```  

4. 安装修改后的新服务包  
```hub install hubserving/clas/```  

5.重新启动服务  
```hub serving start -m clas_system```  

**注意**:
G
gaotingquan 已提交
218
常用参数可在 `PaddleClas/deploy/hubserving/clas/params.py` 中修改:
219 220 221 222
  * 更换模型,需要修改模型文件路径参数:
    ```python
    "inference_model_dir":
    ```
223
  * 更改后处理时返回的 `top-k` 结果数量:
224 225 226
    ```python
    'topk':
    ```
S
sibo2rr 已提交
227
  * 更改后处理时的 lable 与 class id 对应映射文件:
228 229 230 231
    ```python
    'class_id_map_file':
    ```

232
为了避免不必要的延时以及能够以 batch_size 进行预测,数据预处理逻辑(包括 `resize`、`crop` 等操作)均在客户端完成,因此需要在 `PaddleClas/deploy/hubserving/test_hubserving.py#L35-L52` 中修改。