ABTEST_IN_PADDLE_SERVING_CN.md 4.2 KB
Newer Older
B
add doc  
barrierye 已提交
1 2
# 如何使用Paddle Serving做ABTEST

3 4
(简体中文|[English](./ABTEST_IN_PADDLE_SERVING.md))

B
add doc  
barrierye 已提交
5 6
该文档将会用一个基于IMDB数据集的文本分类任务的例子,介绍如何使用Paddle Serving搭建A/B Test框架,例中的Client端、Server端结构如下图所示。

T
TeslaZhao 已提交
7
<img src="images/abtest.png" style="zoom:33%;" />
B
add doc  
barrierye 已提交
8

B
barrierye 已提交
9
需要注意的是:A/B Test只适用于RPC模式,不适用于WEB模式。
B
add doc  
barrierye 已提交
10 11 12 13 14 15 16 17 18

### 下载数据以及模型

``` shell
cd Serving/python/examples/imdb
sh get_data.sh
```

### 处理数据
T
Thomas Young 已提交
19
由于处理数据需要用到相关库,请使用pip进行安装
T
Thomas Young 已提交
20 21 22 23 24 25 26 27 28
``` shell
pip install paddlepaddle
pip install paddle-serving-app
pip install Shapely
````
您可以直接运行下面的命令来处理数据。

[python abtest_get_data.py](../python/examples/imdb/abtest_get_data.py)

T
Thomas Young 已提交
29
文件中的Python代码将处理`test_data/part-0`的数据,并将处理后的数据生成并写入`processed.data`文件中。
B
add doc  
barrierye 已提交
30 31 32

### 启动Server端

T
Thomas Young 已提交
33
这里采用[Docker方式](RUN_IN_DOCKER_CN.md)启动Server端服务。
B
add doc  
barrierye 已提交
34 35 36 37

首先启动BOW Server,该服务启用`8000`端口:

```bash
W
wangjiawei04 已提交
38
docker run -dit -v $PWD/imdb_bow_model:/model -p 8000:8000 --name bow-server registry.baidubce.com/paddlepaddle/serving:latest /bin/bash
T
Thomas Young 已提交
39
docker exec -it bow-server /bin/bash
40
pip install paddle-serving-server -i https://pypi.tuna.tsinghua.edu.cn/simple
T
Thomas Young 已提交
41
pip install paddle-serving-client -i https://pypi.tuna.tsinghua.edu.cn/simple
B
add doc  
barrierye 已提交
42 43 44 45 46 47 48
python -m paddle_serving_server.serve --model model --port 8000 >std.log 2>err.log &
exit
```

同理启动LSTM Server,该服务启用`9000`端口:

```bash
W
wangjiawei04 已提交
49
docker run -dit -v $PWD/imdb_lstm_model:/model -p 9000:9000 --name lstm-server registry.baidubce.com/paddlepaddle/serving:latest /bin/bash
T
Thomas Young 已提交
50
docker exec -it lstm-server /bin/bash
51
pip install paddle-serving-server -i https://pypi.tuna.tsinghua.edu.cn/simple
T
Thomas Young 已提交
52
pip install paddle-serving-client -i https://pypi.tuna.tsinghua.edu.cn/simple
B
add doc  
barrierye 已提交
53 54 55 56 57
python -m paddle_serving_server.serve --model model --port 9000 >std.log 2>err.log &
exit
```

### 启动Client端
T
Thomas Young 已提交
58 59 60 61 62
为了模拟ABTEST工况,您可以在宿主机运行下面Python代码启动Client端,但需确保宿主机具备相关环境,您也可以在docker环境下运行.

运行前使用`pip install paddle-serving-client`安装paddle-serving-client包。


T
Thomas Young 已提交
63
您可以直接使用下面的命令,进行ABTEST预测。
T
Thomas Young 已提交
64 65

[python abtest_client.py](../python/examples/imdb/abtest_client.py)
B
add doc  
barrierye 已提交
66 67 68

```python
from paddle_serving_client import Client
T
Thomas Young 已提交
69
import numpy as np
B
add doc  
barrierye 已提交
70 71 72 73 74 75 76

client = Client()
client.load_client_config('imdb_bow_client_conf/serving_client_conf.prototxt')
client.add_variant("bow", ["127.0.0.1:8000"], 10)
client.add_variant("lstm", ["127.0.0.1:9000"], 90)
client.connect()

T
Thomas Young 已提交
77
print('please wait for about 10s')
B
add doc  
barrierye 已提交
78 79 80 81 82
with open('processed.data') as f:
    cnt = {"bow": {'acc': 0, 'total': 0}, "lstm": {'acc': 0, 'total': 0}}
    for line in f:
        word_ids, label = line.split(';')
        word_ids = [int(x) for x in word_ids.split(',')]
T
Thomas Young 已提交
83 84 85 86 87
        word_len = len(word_ids)
        feed = {
            "words": np.array(word_ids).reshape(word_len, 1),
            "words.lod": [0, word_len]
        }
B
add doc  
barrierye 已提交
88
        fetch = ["acc", "cost", "prediction"]
T
Thomas Young 已提交
89
        [fetch_map, tag] = client.predict(feed=feed, fetch=fetch, need_variant_tag=True,batch=True)
M
MRXLT 已提交
90
        if (float(fetch_map["prediction"][0][1]) - 0.5) * (float(label[0]) - 0.5) > 0:
B
add doc  
barrierye 已提交
91 92 93 94
            cnt[tag]['acc'] += 1
        cnt[tag]['total'] += 1

    for tag, data in cnt.items():
95
        print('[{}]<total: {}> acc: {}'.format(tag, data['total'], float(data['acc'])/float(data['total']) ))
B
add doc  
barrierye 已提交
96 97 98 99 100 101
```
代码中,`client.add_variant(tag, clusters, variant_weight)`是为了添加一个标签为`tag`、流量权重为`variant_weight`的variant。在这个样例中,添加了一个标签为`bow`、流量权重为`10`的BOW variant,以及一个标签为`lstm`、流量权重为`90`的LSTM variant。Client端的流量会根据`10:90`的比例分发到两个variant。

Client端做预测时,若指定参数`need_variant_tag=True`,返回值则包含分发流量对应的variant标签。

### 预期结果
T
Thomas Young 已提交
102
由于网络情况的不同,可能每次预测的结果略有差异。
B
add doc  
barrierye 已提交
103
``` bash
104 105
[lstm]<total: 1867> acc: 0.490091055169
[bow]<total: 217> acc: 0.73732718894
B
add doc  
barrierye 已提交
106
```