diff --git a/README.md b/README.md
index 23f82ac26fdb25b1ecdcfe4a3ada3783997be96e..d25ff30f4afbaa7c5859523cd64cba30f32e1626 100755
--- a/README.md
+++ b/README.md
@@ -101,13 +101,13 @@ For Paddle Serving developers, we provide extended documents such as custom OP,
Paddle Serving works closely with the Paddle model suite, and implements a large number of service deployment examples, including image classification, object detection, language and text recognition, Chinese part of speech, sentiment analysis, content recommendation and other types of examples, for a total of 42 models.
-
+
| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP |
| :----: | :----: | :----: | :----: | :----: | :----: |
| 8 | 12 | 13 | 2 | 3 | 4 |
-
+
For more model examples, read [Model zoo](doc/Model_Zoo_EN.md)
diff --git a/README_CN.md b/README_CN.md
index 3963845e6a38e6a59b8b055bcb6790e3086d8aee..d17725aa96ae2270d2d0bffca6ad81047fa30364 100644
--- a/README_CN.md
+++ b/README_CN.md
@@ -95,21 +95,21 @@ Paddle Serving依托深度学习框架PaddlePaddle旨在帮助深度学习开发
模型库
Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,包括图像分类、物体检测、语言文本识别、中文词性、情感分析、内容推荐等多种类型示例,以及Paddle全链条项目,共计42个模型。
-
+
+
| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP |
| :----: | :----: | :----: | :----: | :----: | :----: |
| 8 | 12 | 13 | 2 | 3 | 4 |
-
+
更多模型示例参考Repo,可进入[模型库](doc/Model_Zoo_CN.md)
-
+
-
-
+
社区
@@ -118,15 +118,17 @@ Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,
### 微信
- 微信用户请扫码
-
+
+
-
### QQ
- 飞桨推理部署交流群(Group No.:697765514)
-
+
+
-
+
### Slack
- [Slack channel](https://paddleserving.slack.com/archives/CUBPKHKMJ)
diff --git a/doc/Serving_Configure_CN.md b/doc/Serving_Configure_CN.md
index 6b3e48c898f6f8324fd709fbe39c05e775a51c94..49f45ea1230e7c002efbd9c44b1c408d2f7e0f3d 100644
--- a/doc/Serving_Configure_CN.md
+++ b/doc/Serving_Configure_CN.md
@@ -12,7 +12,7 @@
## 模型配置文件
-在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](SAVE_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto`。
+在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](Save_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto`。
样例如下:
```
@@ -58,7 +58,7 @@ fetch_var {
## C++ Serving
-### 1.快速启动与关闭
+### 1.快速启动
可以通过配置模型及端口号快速启动服务,启动命令如下:
@@ -106,11 +106,6 @@ python3 -m paddle_serving_server.serve --model serving_model --thread 10 --port
```BASH
python3 -m paddle_serving_server.serve --model serving_model_1 serving_model_2 --thread 10 --port 9292
```
-#### 当您想要关闭Serving服务时.
-```BASH
-python3 -m paddle_serving_server.serve stop
-```
-stop参数发送SIGINT至C++ Serving,若改成kill则发送SIGKILL信号至C++ Serving
### 2.自定义配置启动
@@ -317,20 +312,6 @@ fetch_var {
## Python Pipeline
-### 快速启动与关闭
-Python Pipeline启动命令如下:
-
-```BASH
-python3 web_service.py
-```
-
-当您想要关闭Serving服务时.
-```BASH
-python3 -m paddle_serving_server.serve stop
-```
-stop参数发送SIGINT至Pipeline Serving,若改成kill则发送SIGKILL信号至Pipeline Serving
-
-### 配置文件
Python Pipeline提供了用户友好的多模型组合服务编程框架,适用于多模型组合应用的场景。
其配置文件为YAML格式,一般默认为config.yaml。示例如下:
```YAML
@@ -472,4 +453,4 @@ Python Pipeline支持低精度推理,CPU、GPU和TensoRT支持的精度类型
#GPU 支持: "fp32"(default), "fp16(TensorRT)", "int8";
#CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8"
precision: "fp32"
-```
+```
\ No newline at end of file