提交 b5cf051d 编写于 作者: T TeslaZhao

Update doc

上级 b50d2560
......@@ -19,7 +19,7 @@ ABTest 是一种功能测试方案,一般是为同一个产品目标制定多
Paddle Serving 的 ABTest 功能是基于 PYTHON SDK 和 多个服务端构成。每个服务端加载不同模型,在客户端上注册多个服务端地址和访问比例,最终确定访问。
<div align=center>
<img src='images/6-5_Cpp_ABTest_CN_1.png' height = "400" align="middle"/>
<img src='../images/6-5_Cpp_ABTest_CN_1.png' height = "400" align="middle"/>
</div
<a name="2"></a>
......@@ -38,7 +38,7 @@ Paddle Serving 的 ABTest 功能是基于 PYTHON SDK 和 多个服务端构成
**一.安装 Paddle Serving Wheels**
使用 ABTest 功能的前提是使用 PYTHON SDK,因此需要安装 `paddle_serving_client` 的 wheel 包。[安装方法](./2-1_Docker_Images_CN.md) 如下:
使用 ABTest 功能的前提是使用 PYTHON SDK,因此需要安装 `paddle_serving_client` 的 wheel 包。[安装方法](../Docker_Images_CN.md) 如下:
```
pip3 install paddle-serving-client==0.8.3 -i https://pypi.tuna.tsinghua.edu.cn/simple
......
......@@ -107,7 +107,7 @@ python3 -m paddle_serving_server.serve --model resnet_v2_50_imagenet_model --por
使用异步模式,并开启动态批量后,并发测试不同 shape 数据时,吞吐性能大幅提升。
<div align=center>
<img src='images/6-1_Cpp_Asynchronous_Framwork_CN_1.png' height = "600" align="middle"/>
<img src='../images/6-1_Cpp_Asynchronous_Framwork_CN_1.png' height = "600" align="middle"/>
</div
由于动态批量导致响应时长增长,经过测试,大多数场景下吞吐增量高于响应时长增长,尤其在高并发场景(client=70时),在响应时长增长 33% 情况下,吞吐增加 105%。
......
......@@ -333,13 +333,13 @@ service PipelineService {
- pipeline/gateway/proto/gateway.proto
- pipeline/proto/pipeline_service.proto
修改后,需要[重新编译]()
修改后,需要重新[编译 Paddle Serving](../Compile_CN.md)
<a name="3.3"></a>
**三.自定义服务并发和模型配置**
完整的配置信息可参考[配置信息]()
完整的配置信息可参考[配置信息](../Serving_Configure_CN.md)
<a name="3.4"></a>
......
......@@ -23,7 +23,7 @@
## 安装与环境检查
在运行 Python Pipeline 服务前,确保当前环境下可部署且通过[安装指南](./2-0_Index_CN.md)已完成安装。其次,`v0.8.0`及以上版本提供了环境检查功能,检验环境是否安装正确。
在运行 Python Pipeline 服务前,确保当前环境下可部署且通过[安装指南](../Install_CN.md)已完成安装。其次,`v0.8.0`及以上版本提供了环境检查功能,检验环境是否安装正确。
输入以下命令,进入环境检查程序。
```python
......@@ -91,7 +91,7 @@ shutil.Error: Destination path '/home/work/Pipeline_test_cpu/PipelineServingLogs
## 服务启动与关闭
服务启动需要三类文件,PYTHON 程序、模型文件和配置文件。以[Python Pipeline 快速部署案例](./3-2_QuickStart_Pipeline_OCR_CN.md)为例,
服务启动需要三类文件,PYTHON 程序、模型文件和配置文件。以[Python Pipeline 快速部署案例](../Quick_Start_CN.md)为例,
```
.
├── config.yml
......@@ -471,7 +471,7 @@ op:
Pipeline Serving支持低精度推理,CPU、GPU和TensoRT支持的精度类型如下图所示:
低精度推理需要有量化模型,配合`config.yml`配置一起使用,以[低精度示例]() 为例
低精度推理需要有量化模型,配合`config.yml`配置一起使用,以[低精度示例](../Low_Precision_CN.md) 为例
<a name="9.1"></a>
......
......@@ -7,7 +7,7 @@ Paddle Serving 实现了一套通用的多模型组合服务编程框架 Python
Python Pipeline 使用案例请阅读[Python Pipeline 快速部署案例](../Quick_Start_CN.md)
通过阅读以下内容掌握 Python Pipeline 核心功能和使用方法、高阶功能用法和性能优化指南等。
- [Python Pipeline 框架设计](Pipeline_Design_CN.md)
- [Python Pipeline 核心功能](Pipeline_Senior_CN.md)
- [Python Pipeline 优化指南](Pipeline_Optimize_CN.md)
- [Python Pipeline 性能指标](Pipeline_Benchmark_CN.md)
- [Python Pipeline 框架设计](./Pipeline_Design_CN.md)
- [Python Pipeline 核心功能](./Pipeline_Features_CN.md)
- [Python Pipeline 优化指南](./Pipeline_Optimize_CN.md)
- [Python Pipeline 性能指标](./Pipeline_Benchmark_CN.md)
......@@ -197,7 +197,7 @@ Op 的进程数量不是越大越好,受到机器 CPU 核数、内存和显存
2.动态批量
动态批量是增加吞吐的有一种方法,开启方式可参考[Python Pipeline 核心功能](./7-2_Python_Pipeline_Senior_CN.md#批量推理)
动态批量是增加吞吐的有一种方法,开启方式可参考[Python Pipeline 核心功能](./Pipeline_Features_CN.md#批量推理)
<a name="2.2.3"></a>
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册