README_CN.md 4.3 KB
Newer Older
W
wangjiawei04 已提交
1 2 3 4 5 6 7 8 9 10 11
# OCR 服务

([English](./README.md)|简体中文)

## 获取模型
```
python -m paddle_serving_app.package --get_model ocr_rec
tar -xzvf ocr_rec.tar.gz
python -m paddle_serving_app.package --get_model ocr_det
tar -xzvf ocr_det.tar.gz
```
J
Jiawei Wang 已提交
12
## 获取数据集(可选)
W
wangjiawei04 已提交
13 14 15 16
```
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/ocr/test_imgs.tar
tar xf test_imgs.tar
```
W
wangjiawei04 已提交
17 18 19 20 21 22

## Web Service服务

### 启动服务

```
23 24 25 26 27
#根据CPU/GPU设备选择一种启动方式
#for cpu user
python -m paddle_serving_server.serve --model ocr_det_model --port 9293
python ocr_web_server.py cpu
#for gpu user
Z
zhangjun 已提交
28
python -m paddle_serving_server.serve --model ocr_det_model --port 9293 --gpu_id 0
29
python ocr_web_server.py gpu
W
wangjiawei04 已提交
30 31 32 33 34 35 36
```

### 启动客户端
```
python ocr_web_client.py
```

W
wangjiawei04 已提交
37 38
如果用户需要更快的执行速度,请尝试LocalPredictor版Web服务
## 启动LocalPredictor版Web服务
W
wangjiawei04 已提交
39
```
40 41 42 43 44
#根据CPU/GPU设备选择一种启动方式
#for cpu user
python ocr_debugger_server.py cpu
#for gpu user
python ocr_debugger_server.py gpu
W
wangjiawei04 已提交
45 46 47 48
```

## 启动客户端
```
J
Jiawei Wang 已提交
49
python ocr_web_client.py
W
wangjiawei04 已提交
50 51 52 53 54
```

## 性能指标

CPU: Intel(R) Xeon(R) Gold 6148 CPU @ 2.40GHz * 40
W
wangjiawei04 已提交
55

W
wangjiawei04 已提交
56 57
GPU: Nvidia Tesla V100单卡

W
wangjiawei04 已提交
58 59
数据集:RCTW 500张测试数据集

W
wangjiawei04 已提交
60 61
| engine                       | 客户端读图(ms) | 客户端发送请求到服务端(ms) | 服务端读图(ms) | 检测预处理耗时(ms) | 检测模型耗时(ms) | 检测后处理耗时(ms) | 识别预处理耗时(ms) | 识别模型耗时(ms) | 识别后处理耗时(ms) | 服务端回传客户端时间(ms) | 服务端整体耗时(ms) | 空跑耗时(ms) | 整体耗时(ms) |
|------------------------------|----------------|----------------------------|------------------|--------------------|------------------|--------------------|--------------------|------------------|--------------------|--------------------------|--------------------|--------------|---------------|
J
Jiawei Wang 已提交
62
| Serving web service          | 8.69         | 13.41                      | 109.97           | 2.82               | 87.76            | 4.29               | 3.98               | 78.51            | 3.66               | 4.12                     | 181.02             | 136.49      | 317.51        |
W
wangjiawei04 已提交
63
| Serving LocalPredictor web service | 8.73         | 16.42                      | 115.27           | 2.93               | 20.63            | 3.97               | 4.48               | 13.84            | 3.60               | 6.91                     | 49.45              | 147.33      | 196.78        |
J
Jiawei Wang 已提交
64 65 66 67 68 69 70 71


## 附录: 检测/识别单服务启动
如果您想单独启动检测或者识别服务,我们也提供了启动单服务的代码

### 启动检测服务

```
72 73
python det_web_server.py cpu #for cpu user
python det_web_server.py gpu #for gpu user
J
Jiawei Wang 已提交
74
#or
75 76
python det_debugger_server.py cpu #for cpu user
python det_debugger_server.py gpu #for gpu user
J
Jiawei Wang 已提交
77 78 79 80 81 82 83 84 85 86 87 88
```

### 检测服务客户端

```
# also use ocr_web_client.py
python ocr_web_client.py
```

### 启动识别服务

```
89 90
python rec_web_server.py cpu #for cpu user
python rec_web_server.py gpu #for gpu user
J
Jiawei Wang 已提交
91
#or
92 93
python rec_debugger_server.py cpu #for cpu user
python rec_debugger_server.py gpu #for gpu user
J
Jiawei Wang 已提交
94 95 96 97 98 99 100
```

### 识别服务客户端

```
python rec_web_client.py
```
T
fix doc  
Thomas Young 已提交
101
## C++ OCR Service服务
T
fff  
Thomas Young 已提交
102 103 104

**注意:** 若您需要使用Paddle Serving C++框架串联det模型和rec模型,并进行前后处理,您需要使用开启WITH_OPENCV选项编译的C++ Server,详见[COMPILE.md](../../../doc/COMPILE.md)

T
fix doc  
Thomas Young 已提交
105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124
### 启动服务
根据CPU/GPU设备选择一种启动方式

通过--model后,指定多个模型文件的文件夹路径来启动多模型串联的预测服务。
```
#for cpu user
python -m paddle_serving_server.serve --model ocr_det_model ocr_rec_model --port 9293
#for gpu user
python -m paddle_serving_server_gpu.serve --model ocr_det_model ocr_rec_model --port 9293 --gpu_id 0
```

### 启动客户端
由于需要在C++Server部分进行前后处理,传入C++Server的仅仅是图片的base64编码的字符串,故第一个模型的Client配置需要修改

`ocr_det_client/serving_client_conf.prototxt``feed_var`字段

对于本示例而言,`feed_type`应修改为3(数据类型为string),`shape`为1.

通过在客户端启动后加入多个client模型的client配置文件夹路径,启动client进行预测。
```
H
HexToString 已提交
125
python ocr_cpp_client.py ocr_det_client ocr_rec_client
T
fix doc  
Thomas Young 已提交
126
```