Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Serving
提交
ce46187a
S
Serving
项目概览
PaddlePaddle
/
Serving
接近 2 年 前同步成功
通知
186
Star
833
Fork
253
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
105
列表
看板
标记
里程碑
合并请求
10
Wiki
2
Wiki
分析
仓库
DevOps
项目成员
Pages
S
Serving
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
105
Issue
105
列表
看板
标记
里程碑
合并请求
10
合并请求
10
Pages
分析
分析
仓库分析
DevOps
Wiki
2
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
ce46187a
编写于
4月 19, 2021
作者:
W
wangjiawei04
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
add kubernetes
上级
6acd1cef
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
267 addition
and
0 deletion
+267
-0
doc/PADDLE_SERVING_ON_KUBERNETES.md
doc/PADDLE_SERVING_ON_KUBERNETES.md
+267
-0
未找到文件。
doc/PADDLE_SERVING_ON_KUBERNETES.md
0 → 100644
浏览文件 @
ce46187a
## 在Kubenetes集群上部署Paddle Serving
Paddle Serving在0.6.0版本开始支持在Kubenetes集群上部署,并提供反向代理和安全网关支持。与Paddle Serving在Docker镜像中开发类似,Paddle Serving模型在Kubenetes集群部署需要制作轻量化的运行镜像,并使用kubectl工具在集群上部署。
### 集群准备
如果您还没有Kubenetes集群,我们推荐
[
购买并使用百度智能云CCE集群
](
).
如果是其他云服务商提供的集群,或者自行安装Kubenetes集群,请遵照对应的教程。
您还需要准备一个用于Kubenetes集群部署使用的镜像仓库,通常与云服务提供商绑定,如果您使用的是百度智能云的CCE集群,可以参照
[
百度智能云CCR镜像仓库使用方式
](
)。当然Docker
Hub也可以作为镜像仓库,但是可能在部署时会出现下载速度慢的情况。
### 环境准备
需要在Kubenetes集群上安装网关工具KONG。
```
kubectl apply -f https://bit.ly/kong-ingress-dbless
```
### 制作Serving运行镜像(可选):
首先您需要确定运行镜像的具体环境。和
[
DOCKER开发镜像列表
](
)文档相比,开发镜像用于调试、编译代码,携带了大量的开发工具,因此镜像体积较大。运行镜像通常要求缩小容器体积以提高部署的灵活性。如果您不太需要轻量级的运行容器,请直接跳过这一部分。
在
`tools/generate_runtime_docker.sh`
文件下,它的使用方式如下
```
bash
bash tool/generate_runtime_docker.sh
--env
cuda10.1
--python
2.7
--serving
0.5.0
--paddle
2.0.0
--name
serving_runtime:cuda10.1-py27
```
会生成 cuda10.1,python 2.7,serving版本0.5.0 还有 paddle版本2.0.0的运行镜像。如果有其他疑问,可以执行下列语句得到帮助信息。
```
bash tools/generate_runtime_docker.sh --help
```
运行镜像会携带以下组建在运行镜像中
-
paddle-serving-server, paddle-serving-client,paddle-serving-app,paddlepaddle,具体版本可以在tools/runtime.dockerfile当中查看,同时,如果有定制化的需求,也可以在该文件中进行定制化。
-
paddle-serving-server 二进制可执行程序
也就是说,运行镜像在生成之后,我们只需要将我们运行的代码(如果有)和模型搬运到镜像中就可以。生成后的镜像名为
`paddle_serving:cuda10.2-py37`
### 添加您的代码和模型
在刚才镜像的基础上,我们需要先收集好运行文件。这取决于您是如何使用PaddleServing的
#### Pipeline模式:
对于pipeline模式,我们需要确保模型和程序文件、配置文件等各种依赖都能够在镜像中运行。因此可以在
`/home/project`
下存放我们的执行文件时,我们以
`Serving/python/example/pipeline/ocr`
为例,这是OCR文字识别任务。
```
bash
#假设您已经拥有Serving运行镜像,假设镜像名为paddle_serving:cuda10.2-py37
docker run
--rm
-dit
--name
pipeline_serving_demo paddle_serving:cuda10.2-py37 bash
cd
Serving/python/example/pipeline/ocr
# get models
python
-m
paddle_serving_app.package
--get_model
ocr_rec
tar
-xzvf
ocr_rec.tar.gz
python
-m
paddle_serving_app.package
--get_model
ocr_det
tar
-xzvf
ocr_det.tar.gz
cd
..
docker
cp
ocr pipeline_serving_demo:/home/
docker commit pipeline_serving_demo ocr_serving:latest
```
其中容器名
`paddle_serving_demo`
和最终的镜像名
`ocr_serving:latest`
都可以自行定义,最终通过
`docker push`
来推到云端的镜像仓库。至此,部署前的最后一步工作已完成。
**提示:如果您对runtime镜像是否可运行需要验证,可以执行**
```
docker exec -it pipeline_serving_demo bash
cd /home/ocr
python3.7 web_service.py
```
进入容器到工程目录之后,剩下的操作和调试代码的工作是类似的。
**为了方便您对照,我们也提供了示例镜像registry.baidubce.com/paddlepaddle/serving:k8s-pipeline-demo**
#### WebService模式:
web service模式本质上和pipeline模式类似,因此我们以
`Serving/python/examples/bert`
为例
```
bash
#假设您已经拥有Serving运行镜像,假设镜像名为registry.baidubce.com/paddlepaddle/serving:0.6.0-cuda10.2-py37
docker run
--rm
-dit
--name
webservice_serving_demo registry.baidubce.com/paddlepaddle/serving:0.6.0-cpu-py37 bash
cd
Serving/python/examples/bert
### download model
wget https://paddle-serving.bj.bcebos.com/paddle_hub_models/text/SemanticModel/bert_chinese_L-12_H-768_A-12.tar.gz
tar
-xzf
bert_chinese_L-12_H-768_A-12.tar.gz
mv
bert_chinese_L-12_H-768_A-12_model bert_seq128_model
mv
bert_chinese_L-12_H-768_A-12_client bert_seq128_client
sh get_data.sh
cd
..
docker
cp
bert webservice_serving_demo:/home/
docker commit webservice_serving_demo bert_serving:latest
```
**提示:如果您对runtime镜像是否可运行需要验证,可以执行**
```
bash
docker
exec
-it
webservice_serving_demo bash
cd
/home/bert
python3.7 bert_web_service.py 9292
```
进入容器到工程目录之后,剩下的操作和调试代码的工作是类似的。
**为了方便您对照,我们也提供了示例镜像registry.baidubce.com/paddlepaddle/serving:k8s-web-demo**
#### RPC模式:
相比之下,RPC模式只需要Serving模型的服务端配置即可,我们也以
`Serving/python/examples/detection/faster_rcnn`
为例
```
bash
#假设您已经拥有Serving运行镜像,假设镜像名为paddle_serving:cuda10.2-py37
docker run
--rm
-dit
--name
rpc_serving_demo paddle_serving:cuda10.2-py37 bash
cd
Serving/python/example/detections/faster_rcnn_r50_fpn_1x_coco]
## get model
wget
--no-check-certificate
https://paddle-serving.bj.bcebos.com/pddet_demo/2.0/faster_rcnn_r50_fpn_1x_coco.tar
tar
xf faster_rcnn_r50_fpn_1x_coco.tar
cd
..
docker
cp
faster_rcnn_r50_fpn_1x_coco rpc_serving_demo:/home/faster_rcnn
docker commit rpc_serving_demo detection_serving:latest
```
**提示:如果您对runtime镜像是否可运行需要验证,可以执行**
```
docker exec -it rpc_serving_demo bash
cd /home/faster_rcnn
python3.7 -m paddle_serving_server.serve --model serving_server --port 9292
```
进入容器到工程目录之后,剩下的操作和调试代码的工作是类似的。
**为了方便您对照,我们也提供了示例镜像registry.baidubce.com/paddlepaddle/serving:k8s-rpc-demo**
### 在Kubenetes集群上部署
kubenetes集群操作需要
`kubectl`
去操纵yaml文件。我们这里给出了三个部署的例子,他们分别是
-
pipeline ocr示例
```
bash
sh tools/generate_k8s_yamls.sh
--app_name
ocr
--image_name
registry.baidubce.com/paddlepaddle/serving:k8s-pipeline-demo
--workdir
/home/ocr
--command
"python3.7 web_service.py"
--port
18080
```
-
web service bert示例
```
bash
sh tools/generate_k8s_yamls.sh
--app_name
bert
--image_name
registry.baidubce.com/paddlepaddle/serving:k8s-web-demo
--workdir
/home/bert
--command
"python3.7 bert_web_service.py 9292"
--port
9292
```
-
rpc faster rcnn示例
```
bash
sh tools/generate_k8s_yamls.sh
--app_name
faster_rcnn
--image_name
registry.baidubce.com/paddlepaddle/serving:k8s-r pc-demo
--workdir
/home/faster_rcnn
--command
"python3.7 -m paddle_serving_server.serve --model serving_server --port 9292"
--port
9292
```
接下来我们会看到有两个yaml文件,分别是
`k8s_serving.yaml`
和 k8s_ingress.yaml
`.
为减少大家的阅读时间,我们只选择以pipeline为例。
```yaml
#k8s_serving.yaml
apiVersion: v1
kind: Service
metadata:
labels:
app: ocr
name: ocr
spec:
ports:
- port: 18080
name: rpc
protocol: TCP
targetPort: 18080
selector:
app: ocr
---
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: ocr
name: ocr
spec:
replicas: 1
selector:
matchLabels:
app: ocr
strategy: {}
template:
metadata:
creationTimestamp: null
labels:
app: ocr
spec:
containers:
- image: registry.baidubce.com/paddlepaddle/serving:k8s-pipeline-demo
name: ocr
ports:
- containerPort: 18080
workingDir: /home/ocr
name: ocr
command: ['/bin/bash', '-c']
args: ["python3.7 web_service.py"]
env:
- name: NODE_NAME
valueFrom:
fieldRef:
fieldPath: spec.nodeName
- name: POD_NAME
valueFrom:
fieldRef:
fieldPath: metadata.name
- name: POD_NAMESPACE
valueFrom:
fieldRef:
fieldPath: metadata.namespace
- name: POD_IP
valueFrom:
fieldRef:
fieldPath: status.podIP
resources: {}
```
```yaml
#kong_api.yaml
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: ocr
annotations:
kubernetes.io/ingress.class: kong
spec:
rules:
- http:
paths:
- path: /ocr
backend:
serviceName: ocr
servicePort: 18080
```
最终我们执行就可以启动相关容器和API网关。
```
kubectl apply -f k8s_serving.yaml k8s_ingress.yaml
```
输入
```
kubectl get deploy
```
可见
```
NAME READY UP-TO-DATE AVAILABLE AGE
ocr 1/1 1 1 2d20h
``
`
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录