Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
PaddleClas
提交
2436b83b
P
PaddleClas
项目概览
PaddlePaddle
/
PaddleClas
大约 1 年 前同步成功
通知
115
Star
4999
Fork
1114
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
19
列表
看板
标记
里程碑
合并请求
6
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleClas
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
19
Issue
19
列表
看板
标记
里程碑
合并请求
6
合并请求
6
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
未验证
提交
2436b83b
编写于
11月 02, 2021
作者:
B
Bin Lu
提交者:
GitHub
11月 02, 2021
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update paddle_serving_deploy.md
上级
76e807b6
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
7 addition
and
6 deletion
+7
-6
docs/zh_CN/inference_deployment/paddle_serving_deploy.md
docs/zh_CN/inference_deployment/paddle_serving_deploy.md
+7
-6
未找到文件。
docs/zh_CN/inference_deployment/paddle_serving_deploy.md
浏览文件 @
2436b83b
...
@@ -36,18 +36,18 @@ pip install paddle-serving-server
...
@@ -36,18 +36,18 @@ pip install paddle-serving-server
## 3. 图像分类服务部署
## 3. 图像分类服务部署
### 3.1 模型转换
### 3.1 模型转换
使用PaddleServing做服务化部署时,需要将保存的inference模型转换为Serving模型。下面以经典的ResNet50_vd模型为例,介绍如何部署图像分类服务。
使用PaddleServing做服务化部署时,需要将保存的inference模型转换为Serving模型。下面以经典的ResNet50_vd模型为例,介绍如何部署图像分类服务。
-
1.
进入工作目录:
-
进入工作目录:
```
shell
```
shell
cd
deploy/paddleserving
cd
deploy/paddleserving
```
```
-
2. 下载ResNet50_vd的inference模型
-
下载ResNet50_vd的inference模型:
```
shell
```
shell
# 下载并解压ResNet50_vd模型
# 下载并解压ResNet50_vd模型
wget https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/ResNet50_vd_infer.tar
&&
tar
xf ResNet50_vd_infer.tar
wget https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/ResNet50_vd_infer.tar
&&
tar
xf ResNet50_vd_infer.tar
```
```
-
3. 用paddle_serving_client把下载的inference模型转换成易于Server部署的模型格式
-
用paddle_serving_client把下载的inference模型转换成易于Server部署的模型格式:
```
```
# 转换ResNet50_vd模型
# 转换ResNet50_vd模型
python3 -m paddle_serving_client.convert --dirname ./ResNet50_vd_infer/ \
python3 -m paddle_serving_client.convert --dirname ./ResNet50_vd_infer/ \
...
@@ -67,8 +67,9 @@ ResNet50_vd推理模型转换完成后,会在当前文件夹多出`ResNet50_vd
...
@@ -67,8 +67,9 @@ ResNet50_vd推理模型转换完成后,会在当前文件夹多出`ResNet50_vd
|- serving_client_conf.prototxt
|- serving_client_conf.prototxt
|- serving_client_conf.stream.prototxt
|- serving_client_conf.stream.prototxt
```
```
得到模型文件之后,需要修改serving_server_conf.prototxt中的alias名字: 将
`feed_var`
中的
`alias_name`
改为
`image`
, 将
`fetch_var`
中的
`alias_name`
改为
`prediction`
,
得到模型文件之后,需要修改serving_server_conf.prototxt中的alias名字: 将
`feed_var`
中的
`alias_name`
改为
`image`
, 将
`fetch_var`
中的
`alias_name`
改为
`prediction`
**备注**
, Serving为了兼容不同模型的部署,提供了输入输出重命名的功能。这样,不同的模型在推理部署时,只需要修改配置文件的alias_name即可,无需修改代码,即可完成推理部署。
**备注**
: Serving为了兼容不同模型的部署,提供了输入输出重命名的功能。这样,不同的模型在推理部署时,只需要修改配置文件的alias_name即可,无需修改代码即可完成推理部署。
修改后的serving_server_conf.prototxt如下所示:
修改后的serving_server_conf.prototxt如下所示:
```
```
...
@@ -106,7 +107,7 @@ python3 classification_web_service.py &>log.txt &
...
@@ -106,7 +107,7 @@ python3 classification_web_service.py &>log.txt &
成功启动服务后,log.txt中会打印类似如下日志
成功启动服务后,log.txt中会打印类似如下日志
![](
../../../deploy/paddleserving/imgs/start_server.png
)
![](
../../../deploy/paddleserving/imgs/start_server.png
)
-
发送请求
-
发送请求
:
```
shell
```
shell
# 发送服务请求
# 发送服务请求
python3 pipeline_http_client.py
python3 pipeline_http_client.py
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录