diff --git a/CONTRIBUTING.md b/CONTRIBUTING.md index ca3349709748bb0cc0476fd5c77ee2e4f0db3947..ebfb19de6888bf88a21d1dc853d5d605be9b8c17 100644 --- a/CONTRIBUTING.md +++ b/CONTRIBUTING.md @@ -143,9 +143,12 @@ LOG(INFO) << "Operator FC is taking " << num_inputs << "inputs." When we run a Paddle Serving application or test, we can specify a logging level. For example: ```bash -GLOG_minloglevel=0 GLOG_maxloglevel=3 bin/serving +GLOG_minloglevel=1 bin/serving ``` 0 - INFO + 1 - WARNING + 2 -ERROR + 3 - FATAL (Be careful as FATAL log will generate a coredump) diff --git a/doc/CLIENT_CONFIGURE.md b/doc/CLIENT_CONFIGURE.md index 78c3245d8596b65a23927d57eced4cccc0f28371..dcc49e749017f706ca428ead26c92c66d75dc6a1 100644 --- a/doc/CLIENT_CONFIGURE.md +++ b/doc/CLIENT_CONFIGURE.md @@ -1,6 +1,6 @@ # Client side configuration -Paddle-serving C++ client SDK主配置文件为conf/predictors.prototxt。其中一个示例如下: +Paddle Serving C++ client SDK主配置文件为conf/predictors.prototxt。其中一个示例如下: ## 1. Sample conf @@ -68,7 +68,7 @@ predictors { ## 2. 名词解释 - 预测服务 (Predictor):对一个Paddle预测服务的封装 - 端点(Endpoit):对一个预测需求的逻辑抽象,通常包含一到多个服务变体,以方便多版本模型管理; -- 变体(Variant):一套同质化的Paddle-serving集群服务,每个实例起一个Paddle-serving进程; +- 变体(Variant):一套同质化的Paddle Serving集群服务,每个实例起一个Paddle Serving进程; ## 3. 配置项解释 diff --git a/doc/DESIGN.md b/doc/DESIGN.md index 6bd664b4442c8cb79a45b5afbde285f0f34e7004..5935e894f5113495e0fc6de288f57f0fb8d1b420 100644 --- a/doc/DESIGN.md +++ b/doc/DESIGN.md @@ -2,7 +2,7 @@ ## 1. 项目背景 -PaddlePaddle是公司开源的机器学习框架,广泛支持各种深度学习模型的定制化开发; Paddle serving是Paddle的在线预测部分,与Paddle模型训练环节无缝衔接,提供机器学习预测云服务。本文将从模型、服务、接入等层面,自底向上描述Paddle-serving设计方案。 +PaddlePaddle是公司开源的机器学习框架,广泛支持各种深度学习模型的定制化开发; Paddle serving是Paddle的在线预测部分,与Paddle模型训练环节无缝衔接,提供机器学习预测云服务。本文将从模型、服务、接入等层面,自底向上描述Paddle Serving设计方案。 1. 模型是Paddle Serving预测的核心,包括模型数据和推理计算的管理; 2. 预测框架封装模型推理计算,对外提供RPC接口,对接不同上游; @@ -13,7 +13,7 @@ PaddlePaddle是公司开源的机器学习框架,广泛支持各种深度学 ## 2. 名词解释 - baidu-rpc 百度官方开源RPC框架,支持多种常见通信协议,提供基于protobuf的自定义接口体验 -- Variant Paddle-serving架构对一个最小预测集群的抽象,其特点是内部所有实例(副本)完全同质,逻辑上对应一个model的一个固定版本 +- Variant Paddle Serving架构对一个最小预测集群的抽象,其特点是内部所有实例(副本)完全同质,逻辑上对应一个model的一个固定版本 - Endpoint 多个Variant组成一个Endpoint,逻辑上看,Endpoint代表一个model,Endpoint内部的Variant代表不同的版本 - OP PaddlePaddle用来封装一种数值计算的算子,Paddle Serving用来表示一种基础的业务操作算子,核心接口是inference。OP通过配置其依赖的上游OP,将多个OP串联成一个workflow - Channel 一个OP所有请求级中间数据的抽象;OP之间通过Channel进行数据交互 diff --git a/doc/GETTING_STARTED.md b/doc/GETTING_STARTED.md index b957dc5608c91b6cb18e0a269826819e68b7bf64..184a0b3100ae5bc661ca415810b35ff48a90c882 100644 --- a/doc/GETTING_STARTED.md +++ b/doc/GETTING_STARTED.md @@ -8,7 +8,7 @@ Step1:启动Server端: ```shell -cd paddle-serving/output/demo/serving/ && ./bin/serving & +cd /path/to/paddle-serving/output/demo/serving/ && ./bin/serving & ``` 默认启动后日志写在./log/下,可tail日志查看serving端接收请求的日志: @@ -18,7 +18,7 @@ tail -f log/serving.INFO Step2:启动Client端: ```shell -cd paddle-serving/output/demo/client/image_class && ./bin/ximage & +cd path/to/paddle-serving/output/demo/client/image_class && ./bin/ximage & ``` 默认启动后日志写在./log/下,可tail日志查看分类结果: diff --git a/doc/INSTALL.md b/doc/INSTALL.md index e08aa993bb3ed24e6b32e72159bb56d28482590d..1285c905eee9826f80d5204b33fda0ccd23b5ab9 100644 --- a/doc/INSTALL.md +++ b/doc/INSTALL.md @@ -23,7 +23,7 @@ $ make install ``` . -|-- bin # Paddle-serving protobuf编译插件pdcodegen所在目录 +|-- bin # Paddle Serving protobuf编译插件pdcodegen所在目录 |-- demo # demo总目录 | |-- client | | |-- dense_format # dense_format客户端 @@ -51,7 +51,7 @@ $ make install | | `-- paddle | | `-- fluid | | `-- SE_ResNeXt50_32x4d # image_classification模型 -`-- lib # Paddle-serving产出的静态库文件: libpdseving.a, libsdk-cpp.a, libconfigure.a, libfluid_cpu_engine.a +`-- lib # Paddle Serving产出的静态库文件: libpdseving.a, libsdk-cpp.a, libconfigure.a, libfluid_cpu_engine.a ``` 如要编写新的预测服务,请参考[从零开始写一个预测服务](CREATING.md)