From 8bbf6ea668766fcc87a889f17ec85b0c54f8bc88 Mon Sep 17 00:00:00 2001 From: TeslaZhao Date: Mon, 15 Nov 2021 14:36:12 +0800 Subject: [PATCH] Update Readme --- README.md | 4 ++-- README_CN.md | 20 +++++++++++--------- doc/Serving_Configure_CN.md | 25 +++---------------------- 3 files changed, 16 insertions(+), 33 deletions(-) diff --git a/README.md b/README.md index 23f82ac2..d25ff30f 100755 --- a/README.md +++ b/README.md @@ -101,13 +101,13 @@ For Paddle Serving developers, we provide extended documents such as custom OP, Paddle Serving works closely with the Paddle model suite, and implements a large number of service deployment examples, including image classification, object detection, language and text recognition, Chinese part of speech, sentiment analysis, content recommendation and other types of examples, for a total of 42 models. -
+

| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP | | :----: | :----: | :----: | :----: | :----: | :----: | | 8 | 12 | 13 | 2 | 3 | 4 | -

+

For more model examples, read [Model zoo](doc/Model_Zoo_EN.md) diff --git a/README_CN.md b/README_CN.md index 3963845e..d17725aa 100644 --- a/README_CN.md +++ b/README_CN.md @@ -95,21 +95,21 @@ Paddle Serving依托深度学习框架PaddlePaddle旨在帮助深度学习开发

模型库

Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,包括图像分类、物体检测、语言文本识别、中文词性、情感分析、内容推荐等多种类型示例,以及Paddle全链条项目,共计42个模型。 -
+ +

| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP | | :----: | :----: | :----: | :----: | :----: | :----: | | 8 | 12 | 13 | 2 | 3 | 4 | -

+

更多模型示例参考Repo,可进入[模型库](doc/Model_Zoo_CN.md) -
+

- -

+

社区

@@ -118,15 +118,17 @@ Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署, ### 微信 - 微信用户请扫码 -
+ +

-

### QQ - 飞桨推理部署交流群(Group No.:697765514) -
+ +

-

+

### Slack - [Slack channel](https://paddleserving.slack.com/archives/CUBPKHKMJ) diff --git a/doc/Serving_Configure_CN.md b/doc/Serving_Configure_CN.md index 6b3e48c8..49f45ea1 100644 --- a/doc/Serving_Configure_CN.md +++ b/doc/Serving_Configure_CN.md @@ -12,7 +12,7 @@ ## 模型配置文件 -在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](SAVE_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto`。 +在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](Save_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto`。 样例如下: ``` @@ -58,7 +58,7 @@ fetch_var { ## C++ Serving -### 1.快速启动与关闭 +### 1.快速启动 可以通过配置模型及端口号快速启动服务,启动命令如下: @@ -106,11 +106,6 @@ python3 -m paddle_serving_server.serve --model serving_model --thread 10 --port ```BASH python3 -m paddle_serving_server.serve --model serving_model_1 serving_model_2 --thread 10 --port 9292 ``` -#### 当您想要关闭Serving服务时. -```BASH -python3 -m paddle_serving_server.serve stop -``` -stop参数发送SIGINT至C++ Serving,若改成kill则发送SIGKILL信号至C++ Serving ### 2.自定义配置启动 @@ -317,20 +312,6 @@ fetch_var { ## Python Pipeline -### 快速启动与关闭 -Python Pipeline启动命令如下: - -```BASH -python3 web_service.py -``` - -当您想要关闭Serving服务时. -```BASH -python3 -m paddle_serving_server.serve stop -``` -stop参数发送SIGINT至Pipeline Serving,若改成kill则发送SIGKILL信号至Pipeline Serving - -### 配置文件 Python Pipeline提供了用户友好的多模型组合服务编程框架,适用于多模型组合应用的场景。 其配置文件为YAML格式,一般默认为config.yaml。示例如下: ```YAML @@ -472,4 +453,4 @@ Python Pipeline支持低精度推理,CPU、GPU和TensoRT支持的精度类型 #GPU 支持: "fp32"(default), "fp16(TensorRT)", "int8"; #CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8" precision: "fp32" -``` +``` \ No newline at end of file -- GitLab