diff --git a/README.md b/README.md index 23f82ac26fdb25b1ecdcfe4a3ada3783997be96e..d25ff30f4afbaa7c5859523cd64cba30f32e1626 100755 --- a/README.md +++ b/README.md @@ -101,13 +101,13 @@ For Paddle Serving developers, we provide extended documents such as custom OP, Paddle Serving works closely with the Paddle model suite, and implements a large number of service deployment examples, including image classification, object detection, language and text recognition, Chinese part of speech, sentiment analysis, content recommendation and other types of examples, for a total of 42 models. -
+

| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP | | :----: | :----: | :----: | :----: | :----: | :----: | | 8 | 12 | 13 | 2 | 3 | 4 | -

+

For more model examples, read [Model zoo](doc/Model_Zoo_EN.md) diff --git a/README_CN.md b/README_CN.md index 3963845e6a38e6a59b8b055bcb6790e3086d8aee..d17725aa96ae2270d2d0bffca6ad81047fa30364 100644 --- a/README_CN.md +++ b/README_CN.md @@ -95,21 +95,21 @@ Paddle Serving依托深度学习框架PaddlePaddle旨在帮助深度学习开发

模型库

Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,包括图像分类、物体检测、语言文本识别、中文词性、情感分析、内容推荐等多种类型示例,以及Paddle全链条项目,共计42个模型。 -
+ +

| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP | | :----: | :----: | :----: | :----: | :----: | :----: | | 8 | 12 | 13 | 2 | 3 | 4 | -

+

更多模型示例参考Repo,可进入[模型库](doc/Model_Zoo_CN.md) -
+

- -

+

社区

@@ -118,15 +118,17 @@ Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署, ### 微信 - 微信用户请扫码 -
+ +

-

### QQ - 飞桨推理部署交流群(Group No.:697765514) -
+ +

-

+

### Slack - [Slack channel](https://paddleserving.slack.com/archives/CUBPKHKMJ) diff --git a/doc/Serving_Configure_CN.md b/doc/Serving_Configure_CN.md index 6b3e48c898f6f8324fd709fbe39c05e775a51c94..49f45ea1230e7c002efbd9c44b1c408d2f7e0f3d 100644 --- a/doc/Serving_Configure_CN.md +++ b/doc/Serving_Configure_CN.md @@ -12,7 +12,7 @@ ## 模型配置文件 -在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](SAVE_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto`。 +在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](Save_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto`。 样例如下: ``` @@ -58,7 +58,7 @@ fetch_var { ## C++ Serving -### 1.快速启动与关闭 +### 1.快速启动 可以通过配置模型及端口号快速启动服务,启动命令如下: @@ -106,11 +106,6 @@ python3 -m paddle_serving_server.serve --model serving_model --thread 10 --port ```BASH python3 -m paddle_serving_server.serve --model serving_model_1 serving_model_2 --thread 10 --port 9292 ``` -#### 当您想要关闭Serving服务时. -```BASH -python3 -m paddle_serving_server.serve stop -``` -stop参数发送SIGINT至C++ Serving,若改成kill则发送SIGKILL信号至C++ Serving ### 2.自定义配置启动 @@ -317,20 +312,6 @@ fetch_var { ## Python Pipeline -### 快速启动与关闭 -Python Pipeline启动命令如下: - -```BASH -python3 web_service.py -``` - -当您想要关闭Serving服务时. -```BASH -python3 -m paddle_serving_server.serve stop -``` -stop参数发送SIGINT至Pipeline Serving,若改成kill则发送SIGKILL信号至Pipeline Serving - -### 配置文件 Python Pipeline提供了用户友好的多模型组合服务编程框架,适用于多模型组合应用的场景。 其配置文件为YAML格式,一般默认为config.yaml。示例如下: ```YAML @@ -472,4 +453,4 @@ Python Pipeline支持低精度推理,CPU、GPU和TensoRT支持的精度类型 #GPU 支持: "fp32"(default), "fp16(TensorRT)", "int8"; #CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8" precision: "fp32" -``` +``` \ No newline at end of file