提交 8bbf6ea6 编写于 作者: T TeslaZhao

Update Readme

上级 472b8083
...@@ -101,13 +101,13 @@ For Paddle Serving developers, we provide extended documents such as custom OP, ...@@ -101,13 +101,13 @@ For Paddle Serving developers, we provide extended documents such as custom OP,
Paddle Serving works closely with the Paddle model suite, and implements a large number of service deployment examples, including image classification, object detection, language and text recognition, Chinese part of speech, sentiment analysis, content recommendation and other types of examples, for a total of 42 models. Paddle Serving works closely with the Paddle model suite, and implements a large number of service deployment examples, including image classification, object detection, language and text recognition, Chinese part of speech, sentiment analysis, content recommendation and other types of examples, for a total of 42 models.
<center class="half"> <p align="center">
| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP | | PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP |
| :----: | :----: | :----: | :----: | :----: | :----: | | :----: | :----: | :----: | :----: | :----: | :----: |
| 8 | 12 | 13 | 2 | 3 | 4 | | 8 | 12 | 13 | 2 | 3 | 4 |
</center> </p>
For more model examples, read [Model zoo](doc/Model_Zoo_EN.md) For more model examples, read [Model zoo](doc/Model_Zoo_EN.md)
......
...@@ -95,21 +95,21 @@ Paddle Serving依托深度学习框架PaddlePaddle旨在帮助深度学习开发 ...@@ -95,21 +95,21 @@ Paddle Serving依托深度学习框架PaddlePaddle旨在帮助深度学习开发
<h2 align="center">模型库</h2> <h2 align="center">模型库</h2>
Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,包括图像分类、物体检测、语言文本识别、中文词性、情感分析、内容推荐等多种类型示例,以及Paddle全链条项目,共计42个模型。 Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,包括图像分类、物体检测、语言文本识别、中文词性、情感分析、内容推荐等多种类型示例,以及Paddle全链条项目,共计42个模型。
<center class="half">
<p align="center">
| PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP | | PaddleOCR | PaddleDetection | PaddleClas | PaddleSeg | PaddleRec | Paddle NLP |
| :----: | :----: | :----: | :----: | :----: | :----: | | :----: | :----: | :----: | :----: | :----: | :----: |
| 8 | 12 | 13 | 2 | 3 | 4 | | 8 | 12 | 13 | 2 | 3 | 4 |
</center> </p>
更多模型示例参考Repo,可进入[模型库](doc/Model_Zoo_CN.md) 更多模型示例参考Repo,可进入[模型库](doc/Model_Zoo_CN.md)
<center class="half"> <p align="center">
<img src="https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.3/doc/imgs_results/PP-OCRv2/PP-OCRv2-pic003.jpg?raw=true" width="345"/> <img src="https://github.com/PaddlePaddle/PaddleOCR/blob/release/2.3/doc/imgs_results/PP-OCRv2/PP-OCRv2-pic003.jpg?raw=true" width="345"/>
<img src="doc/images/detection.png" width="350"> <img src="doc/images/detection.png" width="350">
</p>
</center>
<h2 align="center">社区</h2> <h2 align="center">社区</h2>
...@@ -118,15 +118,17 @@ Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署, ...@@ -118,15 +118,17 @@ Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,
### 微信 ### 微信
- 微信用户请扫码 - 微信用户请扫码
<center class="half">
<p align="center">
<img src="doc/images/wechat_group_1.jpeg" width="250"> <img src="doc/images/wechat_group_1.jpeg" width="250">
</center </p>
### QQ ### QQ
- 飞桨推理部署交流群(Group No.:697765514) - 飞桨推理部署交流群(Group No.:697765514)
<center class="half">
<p align="center">
<img src="doc/images/qq_group_1.png" width="200"> <img src="doc/images/qq_group_1.png" width="200">
</center> </p>
### Slack ### Slack
- [Slack channel](https://paddleserving.slack.com/archives/CUBPKHKMJ) - [Slack channel](https://paddleserving.slack.com/archives/CUBPKHKMJ)
......
...@@ -12,7 +12,7 @@ ...@@ -12,7 +12,7 @@
## 模型配置文件 ## 模型配置文件
在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](SAVE_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto` 在开始介绍Server配置之前,先来介绍一下模型配置文件。我们在将模型转换为PaddleServing模型时,会生成对应的serving_client_conf.prototxt以及serving_server_conf.prototxt,两者内容一致,为模型输入输出的参数信息,方便用户拼装参数。该配置文件用于Server以及Client,并不需要用户自行修改。转换方法参考文档《[怎样保存用于Paddle Serving的模型](Save_CN.md)》。protobuf格式可参考`core/configure/proto/general_model_config.proto`
样例如下: 样例如下:
``` ```
...@@ -58,7 +58,7 @@ fetch_var { ...@@ -58,7 +58,7 @@ fetch_var {
## C++ Serving ## C++ Serving
### 1.快速启动与关闭 ### 1.快速启动
可以通过配置模型及端口号快速启动服务,启动命令如下: 可以通过配置模型及端口号快速启动服务,启动命令如下:
...@@ -106,11 +106,6 @@ python3 -m paddle_serving_server.serve --model serving_model --thread 10 --port ...@@ -106,11 +106,6 @@ python3 -m paddle_serving_server.serve --model serving_model --thread 10 --port
```BASH ```BASH
python3 -m paddle_serving_server.serve --model serving_model_1 serving_model_2 --thread 10 --port 9292 python3 -m paddle_serving_server.serve --model serving_model_1 serving_model_2 --thread 10 --port 9292
``` ```
#### 当您想要关闭Serving服务时.
```BASH
python3 -m paddle_serving_server.serve stop
```
stop参数发送SIGINT至C++ Serving,若改成kill则发送SIGKILL信号至C++ Serving
### 2.自定义配置启动 ### 2.自定义配置启动
...@@ -317,20 +312,6 @@ fetch_var { ...@@ -317,20 +312,6 @@ fetch_var {
## Python Pipeline ## Python Pipeline
### 快速启动与关闭
Python Pipeline启动命令如下:
```BASH
python3 web_service.py
```
当您想要关闭Serving服务时.
```BASH
python3 -m paddle_serving_server.serve stop
```
stop参数发送SIGINT至Pipeline Serving,若改成kill则发送SIGKILL信号至Pipeline Serving
### 配置文件
Python Pipeline提供了用户友好的多模型组合服务编程框架,适用于多模型组合应用的场景。 Python Pipeline提供了用户友好的多模型组合服务编程框架,适用于多模型组合应用的场景。
其配置文件为YAML格式,一般默认为config.yaml。示例如下: 其配置文件为YAML格式,一般默认为config.yaml。示例如下:
```YAML ```YAML
...@@ -472,4 +453,4 @@ Python Pipeline支持低精度推理,CPU、GPU和TensoRT支持的精度类型 ...@@ -472,4 +453,4 @@ Python Pipeline支持低精度推理,CPU、GPU和TensoRT支持的精度类型
#GPU 支持: "fp32"(default), "fp16(TensorRT)", "int8"; #GPU 支持: "fp32"(default), "fp16(TensorRT)", "int8";
#CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8" #CPU 支持: "fp32"(default), "fp16", "bf16"(mkldnn); 不支持: "int8"
precision: "fp32" precision: "fp32"
``` ```
\ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册