readme.md 7.2 KB
Newer Older
1 2 3 4 5 6
[English](readme_en.md) | 简体中文

# 基于PaddleHub Serving的服务部署

hubserving服务部署配置服务包`clas`下包含3个必选文件,目录如下:
```
T
Tingquan Gao 已提交
7
hubserving/clas/
8 9 10 11 12 13 14 15 16
  └─  __init__.py    空文件,必选
  └─  config.json    配置文件,可选,使用配置启动服务时作为参数传入
  └─  module.py      主模块,必选,包含服务的完整逻辑
  └─  params.py      参数文件,必选,包含模型路径、前后处理参数等参数
```

## 快速启动服务
### 1. 准备环境
```shell
T
Tingquan Gao 已提交
17
# 安装paddlehub,请安装2.0版本
G
gaotingquan 已提交
18
pip3 install paddlehub==2.1.0 --upgrade -i https://pypi.tuna.tsinghua.edu.cn/simple
19 20 21 22 23
```

### 2. 下载推理模型
安装服务模块前,需要准备推理模型并放到正确路径,默认模型路径为:
```
T
Tingquan Gao 已提交
24 25
分类推理模型结构文件:PaddleClas/inference/inference.pdmodel
分类推理模型权重文件:PaddleClas/inference/inference.pdiparams
26 27
```  

28
**注意**
T
Tingquan Gao 已提交
29
* 模型文件路径可在`PaddleClas/deploy/hubserving/clas/params.py`中查看和修改:
30
  ```python
T
Tingquan Gao 已提交
31
  "inference_model_dir": "../inference/"
32
  ```
T
Tingquan Gao 已提交
33
  需要注意,模型文件(包括.pdmodel与.pdiparams)名称必须为`inference`
34
* 我们也提供了大量基于ImageNet-1k数据集的预训练模型,模型列表及下载地址详见[模型库概览](../../docs/zh_CN/models/models_intro.md),也可以使用自己训练转换好的模型。
35 36 37 38 39 40

### 3. 安装服务模块
针对Linux环境和Windows环境,安装命令如下。

* 在Linux环境下,安装示例如下:
```shell
T
Tingquan Gao 已提交
41 42 43
cd PaddleClas/deploy
# 安装服务模块:
hub install hubserving/clas/
44 45 46
```

* 在Windows环境下(文件夹的分隔符为`\`),安装示例如下:
T
Tingquan Gao 已提交
47

48
```shell
T
Tingquan Gao 已提交
49
cd PaddleClas\deploy
50
# 安装服务模块:  
T
Tingquan Gao 已提交
51
hub install hubserving\clas\
52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86
```

### 4. 启动服务
#### 方式1. 命令行命令启动(仅支持CPU)
**启动命令:**  
```shell
$ hub serving start --modules Module1==Version1 \
                    --port XXXX \
                    --use_multiprocess \
                    --workers \
```  

**参数:**  
|参数|用途|  
|-|-|  
|--modules/-m| [**必选**] PaddleHub Serving预安装模型,以多个Module==Version键值对的形式列出<br>*`当不指定Version时,默认选择最新版本`*|  
|--port/-p| [**可选**] 服务端口,默认为8866|  
|--use_multiprocess| [**可选**] 是否启用并发方式,默认为单进程方式,推荐多核CPU机器使用此方式<br>*`Windows操作系统只支持单进程方式`*|
|--workers| [**可选**] 在并发方式下指定的并发任务数,默认为`2*cpu_count-1`,其中`cpu_count`为CPU核数|  

如按默认参数启动服务:  ```hub serving start -m clas_system```  

这样就完成了一个服务化API的部署,使用默认端口号8866。

#### 方式2. 配置文件启动(支持CPU、GPU)
**启动命令:**  
```hub serving start -c config.json```  

其中,`config.json`格式如下:
```json
{
    "modules_info": {
        "clas_system": {
            "init_args": {
                "version": "1.0.0",
T
Tingquan Gao 已提交
87 88
                "use_gpu": true,
                "enable_mkldnn": false
89 90 91 92 93 94 95 96 97 98 99
            },
            "predict_args": {
            }
        }
    },
    "port": 8866,
    "use_multiprocess": false,
    "workers": 2
}
```

T
Tingquan Gao 已提交
100 101 102
- `init_args`中的可配参数与`module.py`中的`_initialize`函数接口一致。其中,
  - 当`use_gpu`为`true`时,表示使用GPU启动服务。
  - 当`enable_mkldnn`为`true`时,表示使用MKL-DNN加速。
103 104 105 106 107 108
- `predict_args`中的可配参数与`module.py`中的`predict`函数接口一致。

**注意:**  
- 使用配置文件启动服务时,其他参数会被忽略。
- 如果使用GPU预测(即,`use_gpu`置为`true`),则需要在启动服务之前,设置CUDA_VISIBLE_DEVICES环境变量,如:```export CUDA_VISIBLE_DEVICES=0```,否则不用设置。
- **`use_gpu`不可与`use_multiprocess`同时为`true`**。
T
Tingquan Gao 已提交
109
- **`use_gpu`与`enable_mkldnn`同时为`true`时,将忽略`enable_mkldnn`,而使用GPU**。
110 111 112

如,使用GPU 3号卡启动串联服务:  
```shell
T
Tingquan Gao 已提交
113
cd PaddleClas/deploy
114
export CUDA_VISIBLE_DEVICES=3
T
Tingquan Gao 已提交
115
hub serving start -c hubserving/clas/config.json
116 117 118 119 120
```  

## 发送预测请求
配置好服务端,可使用以下命令发送预测请求,获取预测结果:  

T
Tingquan Gao 已提交
121 122 123 124
```shell
cd PaddleClas/deploy
python hubserving/test_hubserving.py server_url image_path
```  
125

126
需要给脚本传递2个必须参数:
127 128
- **server_url**:服务地址,格式为  
`http://[ip_address]:[port]/predict/[module_name]`  
129 130
- **image_path**:测试图像路径,可以是单张图片路径,也可以是图像集合目录路径。
- **batch_size**:[**可选**] 以`batch_size`大小为单位进行预测,默认为`1`。
G
gaotingquan 已提交
131 132 133 134
- **resize_short**:[**可选**] 预处理时,按短边调整大小,默认为`256`。
- **crop_size**:[**可选**] 预处理时,居中裁剪的大小,默认为`224`。
- **normalize**:[**可选**] 预处理时,是否进行`normalize`,默认为`True`。
- **to_chw**:[**可选**] 预处理时,是否调整为`CHW`顺序,默认为`True`。
135

G
gaotingquan 已提交
136
**注意**:如果使用`Transformer`系列模型,如`DeiT_***_384`, `ViT_***_384`等,请注意模型的输入数据尺寸,需要指定`--resize_short=384 --crop_size=384`。
137

138 139

访问示例:  
T
Tingquan Gao 已提交
140 141 142
```shell
python hubserving/test_hubserving.py --server_url http://127.0.0.1:8866/predict/clas_system --image_file ./hubserving/ILSVRC2012_val_00006666.JPEG --batch_size 8
```
143

T
Tingquan Gao 已提交
144 145 146 147 148 149 150 151 152
### 返回结果格式说明
返回结果为列表(list),包含top-k个分类结果,以及对应的得分,还有此图片预测耗时,具体如下:
```
list: 返回结果
└─ list: 第一张图片结果
   └─ list: 前k个分类结果,依score递减排序
   └─ list: 前k个分类结果对应的score,依score递减排序
   └─ float: 该图分类耗时,单位秒
```
153

T
Tingquan Gao 已提交
154
**说明:** 如果需要增加、删除、修改返回字段,可对相应模块进行修改,完整流程参考下一节自定义修改服务模块。
155 156 157 158 159 160 161

## 自定义修改服务模块
如果需要修改服务逻辑,你一般需要操作以下步骤:  

- 1、 停止服务  
```hub serving stop --port/-p XXXX```  

T
Tingquan Gao 已提交
162
- 2、 到相应的`module.py`和`params.py`等文件中根据实际需求修改代码。`module.py`修改后需要重新安装(`hub install hubserving/clas/`)并部署。在进行部署前,可通过`python hubserving/clas/module.py`测试已安装服务模块。
163 164 165 166 167

- 3、 卸载旧服务包  
```hub uninstall clas_system```  

- 4、 安装修改后的新服务包  
T
Tingquan Gao 已提交
168
```hub install hubserving/clas/```  
169 170 171

- 5、重新启动服务  
```hub serving start -m clas_system```  
T
Tingquan Gao 已提交
172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188

**注意**:
常用参数可在[params.py](./clas/params.py)中修改:
  * 更换模型,需要修改模型文件路径参数:
    ```python
    "inference_model_dir":
    ```
  * 更改后处理时返回的`top-k`结果数量:
    ```python
    'topk':
    ```
  * 更改后处理时的lable与class id对应映射文件:
    ```python
    'class_id_map_file':
    ```

为了避免不必要的延时以及能够以batch_size进行预测,数据预处理逻辑(包括resize、crop等操作)在客户端完成,因此需要在[test_hubserving.py](./test_hubserving.py#L35-L52)中修改。