diff --git a/deploy/hubserving/readme.md b/deploy/hubserving/readme.md index c7068d91b42f1e809190c0e44bc6ac97443c9348..0a904893b8630f2297008fae37a23b4246c5b928 100644 --- a/deploy/hubserving/readme.md +++ b/deploy/hubserving/readme.md @@ -1,8 +1,8 @@ [English](readme_en.md) | 简体中文 PaddleOCR提供2种服务部署方式: -- 基于PaddleHub Serving的部署:代码路径为"`./deploy/hubserving`",按照本教程使用; -- 基于PaddleServing的部署:代码路径为"`./deploy/pdserving`",使用方法参考[文档](../pdserving/readme.md)。 +- 基于PaddleHub Serving的部署:代码路径为"`./deploy/hubserving`",按照本教程使用; +- 基于PaddleServing的部署:代码路径为"`./deploy/pdserving`",使用方法参考[文档](../../doc/doc_ch/serving_inference.md)。 # 基于PaddleHub Serving的服务部署 diff --git a/doc/doc_ch/serving_inference.md b/doc/doc_ch/serving_inference.md index 5e27d1561fb5ca5d5295bd2a02b4f07f624f1c63..f8dd7ae423d545963b3d03ee488579d5ac566902 100644 --- a/doc/doc_ch/serving_inference.md +++ b/doc/doc_ch/serving_inference.md @@ -1,3 +1,7 @@ +PaddleOCR提供2种服务部署方式: +- 基于PaddleServing的部署:代码路径为"`./deploy/pdserving`",按照本教程使用。。 +- 基于PaddleHub Serving的部署:代码路径为"`./deploy/hubserving`",使用方法参考[文档](../../deploy/hubserving/readme.md) + # 使用Paddle Serving预测推理 阅读本文档之前,请先阅读文档 [基于Python预测引擎推理](./inference.md) @@ -8,7 +12,7 @@ ### 一、 准备环境 我们先安装Paddle Serving相关组件 -我们推荐用户使用GPU来做Paddle Serving的OCR服务部署 +我们推荐用户使用GPU来做Paddle Serving的OCR服务部署 **CUDA版本:9.X/10.X** @@ -26,7 +30,7 @@ #CPU/GPU版本选择一个 #GPU版本服务端 #CUDA 9 -python -m pip install -U https://paddle-serving.bj.bcebos.com/whl/paddle_serving_server_gpu-0.0.0.post9-py3-none-any.whl +python -m pip install -U https://paddle-serving.bj.bcebos.com/whl/paddle_serving_server_gpu-0.0.0.post9-py3-none-any.whl #CUDA 10 python -m pip install -U https://paddle-serving.bj.bcebos.com/whl/paddle_serving_server_gpu-0.0.0.post10-py3-none-any.whl #CPU版本服务端 @@ -81,7 +85,7 @@ def read_params(): #params for text detector cfg.det_algorithm = "DB" # 检测算法, DB/EAST等 cfg.det_model_dir = "./det_mv_server/" # 检测算法模型路径 - cfg.det_max_side_len = 960 + cfg.det_max_side_len = 960 #DB params cfg.det_db_thresh =0.3 @@ -222,14 +226,14 @@ python rec_web_client.py #GPU用户 python -m paddle_serving_server_gpu.serve --model det_infer_server --port 9293 --gpu_id 0 python -m paddle_serving_server_gpu.serve --model cls_infer_server --port 9294 --gpu_id 0 -python ocr_rpc_server.py +python ocr_rpc_server.py #CPU用户 python -m paddle_serving_server.serve --model det_infer_server --port 9293 python -m paddle_serving_server.serve --model cls_infer_server --port 9294 python ocr_rpc_server.py #快速版,Windows/Linux用户 -python ocr_local_server.py +python ocr_local_server.py ``` 客户端 diff --git a/doc/joinus.PNG b/doc/joinus.PNG index f1a4fdd7b8c167a64b1b7be2556ed6c92413b7df..fe6e5762c9ae6306a94f1a62def35587d9ed5452 100644 Binary files a/doc/joinus.PNG and b/doc/joinus.PNG differ