RUN_IN_DOCKER_CN.md 5.5 KB
Newer Older
1 2
# 如何在Docker中运行PaddleServing

J
Jiawei Wang 已提交
3
(简体中文|[English](RUN_IN_DOCKER.md))
B
fix doc  
barrierye 已提交
4

5 6 7 8 9 10 11 12 13 14 15 16 17
## 环境要求

Docker(GPU版本需要在GPU机器上安装nvidia-docker)

## CPU版本

### 获取镜像

可以通过两种方式获取镜像。

1. 直接拉取镜像

   ```bash
18
   docker pull hub.baidubce.com/paddlepaddle/serving:0.2.0
19 20 21 22
   ```

2. 基于Dockerfile构建镜像

B
barrierye 已提交
23
   建立新目录,复制[Dockerfile](../tools/Dockerfile)内容到该目录下Dockerfile文件。执行
24 25

   ```bash
26
   docker build -t hub.baidubce.com/paddlepaddle/serving:0.2.0 .
27 28 29 30 31
   ```

### 创建容器并进入

```bash
32
docker run -p 9292:9292 --name test -dit hub.baidubce.com/paddlepaddle/serving:0.2.0
33 34 35 36 37 38 39
docker exec -it test bash
```

`-p`选项是为了将容器的`9292`端口映射到宿主机的`9292`端口。

### 安装PaddleServing

40
为了减小镜像的体积,镜像中没有安装Serving包,要执行下面命令进行安装。
41 42 43 44 45

```bash
pip install paddle-serving-server
```

46 47 48 49 50 51
您可能需要使用国内镜像源(例如清华源)来加速下载。

```shell
pip install paddle-serving-server -i https://pypi.tuna.tsinghua.edu.cn/simple
```

52 53 54 55 56 57 58 59 60 61 62 63 64 65
### 测试example

通过下面命令获取训练好的Boston房价预估模型:

```bash
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/uci_housing.tar.gz
tar -xzf uci_housing.tar.gz
```

- 测试HTTP服务

  在Server端(容器内)运行:

  ```bash
B
fix doc  
barrierye 已提交
66
  python -m paddle_serving_server.serve --model uci_housing_model --thread 10 --port 9292 --name uci &>std.log 2>err.log &
67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107
  ```

  在Client端(容器内或容器外)运行:

  ```bash
  curl -H "Content-Type:application/json" -X POST -d '{"x": [0.0137, -0.1136, 0.2553, -0.0692, 0.0582, -0.0727, -0.1583, -0.0584, 0.6283, 0.4919, 0.1856, 0.0795, -0.0332], "fetch":["price"]}' http://127.0.0.1:9292/uci/prediction
  ```

- 测试RPC服务

  在Server端(容器内)运行:

  ```bash
  python -m paddle_serving_server.serve --model uci_housing_model --thread 10 --port 9292 &>std.log 2>err.log &
  ```

  在Client端(容器内或容器外,需要安装`paddle-serving-client`包)运行下面Python代码:

  ```python
  from paddle_serving_client import Client
  
  client = Client()
  client.load_client_config("uci_housing_client/serving_client_conf.prototxt")
  client.connect(["127.0.0.1:9292"])
  data = [0.0137, -0.1136, 0.2553, -0.0692, 0.0582, -0.0727,
          -0.1583, -0.0584, 0.6283, 0.4919, 0.1856, 0.0795, -0.0332]
  fetch_map = client.predict(feed={"x": data}, fetch=["price"])
  print(fetch_map)
  ```

## GPU版本

GPU版本与CPU版本基本一致,只有部分接口命名的差别(GPU版本需要在GPU机器上安装nvidia-docker)。

### 获取镜像

可以通过两种方式获取镜像。

1. 直接拉取镜像

   ```bash
108
   nvidia-docker pull hub.baidubce.com/paddlepaddle/serving:0.2.0-gpu
109 110 111 112
   ```

2. 基于Dockerfile构建镜像

B
barrierye 已提交
113
   建立新目录,复制[Dockerfile.gpu](../tools/Dockerfile.gpu)内容到该目录下Dockerfile文件。执行
114 115

   ```bash
116
   nvidia-docker build -t hub.baidubce.com/paddlepaddle/serving:0.2.0-gpu .
117 118 119 120 121
   ```

### 创建容器并进入

```bash
122
nvidia-docker run -p 9292:9292 --name test -dit hub.baidubce.com/paddlepaddle/serving:0.2.0-gpu
123 124 125 126 127 128 129
nvidia-docker exec -it test bash
```

`-p`选项是为了将容器的`9292`端口映射到宿主机的`9292`端口。

### 安装PaddleServing

130
为了减小镜像的体积,镜像中没有安装Serving包,要执行下面命令进行安装。
131 132 133 134 135

```bash
pip install paddle-serving-server-gpu
```

136 137 138 139 140 141
您可能需要使用国内镜像源(例如清华源)来加速下载。

```shell
pip install paddle-serving-server -i https://pypi.tuna.tsinghua.edu.cn/simple
```

142 143
### 测试example

B
barrierye 已提交
144 145 146 147 148
在运行GPU版Server时需要通过`--gpu_ids`选项设置预测服务使用的GPU,缺省状态默认使用CPU。当设置的`--gpu_ids`超出环境变量`CUDA_VISIBLE_DEVICES`时会报错。下面的示例为指定使用索引为0的GPU:
```shell
export CUDA_VISIBLE_DEVICES=0,1
python -m paddle_serving_server_gpu.serve --model uci_housing_model --port 9292 --gpu_ids 0
```
B
barrierye 已提交
149 150


151 152 153 154 155 156 157 158 159 160 161 162
通过下面命令获取训练好的Boston房价预估模型:

```bash
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/uci_housing.tar.gz
tar -xzf uci_housing.tar.gz
```

- 测试HTTP服务

  在Server端(容器内)运行:

  ```bash
B
barrierye 已提交
163
  python -m paddle_serving_server_gpu.serve --model uci_housing_model --thread 10 --port 9292 --name uci --gpu_ids 0
164 165 166 167 168 169 170 171 172 173 174 175 176
  ```

  在Client端(容器内或容器外)运行:

  ```bash
  curl -H "Content-Type:application/json" -X POST -d '{"x": [0.0137, -0.1136, 0.2553, -0.0692, 0.0582, -0.0727, -0.1583, -0.0584, 0.6283, 0.4919, 0.1856, 0.0795, -0.0332], "fetch":["price"]}' http://127.0.0.1:9292/uci/prediction
  ```

- 测试RPC服务

  在Server端(容器内)运行:

  ```bash
B
barrierye 已提交
177
  python -m paddle_serving_server_gpu.serve --model uci_housing_model --thread 10 --port 9292 --gpu_ids 0
178 179 180 181 182 183 184 185 186 187 188 189 190 191 192
  ```

  在Client端(容器内或容器外,需要安装`paddle-serving-client`包)运行下面Python代码:

  ```bash
  from paddle_serving_client import Client
  
  client = Client()
  client.load_client_config("uci_housing_client/serving_client_conf.prototxt")
  client.connect(["127.0.0.1:9292"])
  data = [0.0137, -0.1136, 0.2553, -0.0692, 0.0582, -0.0727,
          -0.1583, -0.0584, 0.6283, 0.4919, 0.1856, 0.0795, -0.0332]
  fetch_map = client.predict(feed={"x": data}, fetch=["price"])
  print(fetch_map)
  ```
B
barrierye 已提交
193 194 195 196

## 注意事项

该文档提供的镜像均为运行镜像,不支持开发编译。如果想要从源码编译,请查看[如何编译PaddleServing](COMPILE.md)