INFERENCE_TO_SERVING_CN.md 1.6 KB
Newer Older
D
add doc  
dongdaxiang 已提交
1 2 3 4 5 6
# 如何从Paddle保存的预测模型转为Paddle Serving格式可部署的模型

([English](./INFERENCE_TO_SERVING.md)|简体中文)

## 示例

J
Jiawei Wang 已提交
7 8 9
在下列代码中,我们需要知道以下信息。

**模型文件夹**:这个文件夹就是Paddle的inference_model所在的文件夹
J
Jiawei Wang 已提交
10

J
Jiawei Wang 已提交
11
**serving_client_dir**: 这个文件夹是inference_model转换成Serving模型后,服务端配置的保存路径
J
Jiawei Wang 已提交
12

J
Jiawei Wang 已提交
13
**serving_client_dir**: 这个文件夹是inference_model转换成Serving模型后,客户端配置的保存路径
J
Jiawei Wang 已提交
14

J
Jiawei Wang 已提交
15
**模型描述文件**: 模型描述文件也就是`model_filename`默认值为`__model__`,是一个pb2文本文件,如果是别的文件名需要显式指定
J
Jiawei Wang 已提交
16

J
Jiawei Wang 已提交
17 18 19
**模型参数文件**: 在`save_inference_model`阶段,默认方式是每一个Variable保存一个二进制文件,如果是这种情况就不需要做指定。如果所有参数用压缩成一个文件的形式保存,则需要显式指定`params_filename`


D
add doc  
dongdaxiang 已提交
20 21 22 23 24 25 26 27
``` python
from paddle_serving_client.io import inference_model_to_serving
inference_model_dir = "your_inference_model"
serving_client_dir = "serving_client_dir"
serving_server_dir = "serving_server_dir"
feed_var_names, fetch_var_names = inference_model_to_serving(
		inference_model_dir, serving_client_dir, serving_server_dir)
```
J
Jiawei Wang 已提交
28 29 30 31 32 33 34
如果模型中有模型描述文件`model_filename` 和 模型参数文件`params_filename`,那么调用api请用
```
feed_var_names, fetch_var_names = inference_model_to_serving(
		inference_model_dir, serving_client_dir, serving_server_dir,
		 model_filename="model", params_filename="params")
```