提交 f0f1723c 编写于 作者: T TeslaZhao

Update doc

上级 5f64d512
......@@ -6,7 +6,7 @@ Paddle Serving 是飞桨官方推荐的服务化部署框架,围绕 AI 落地
- 支持深度学习平台:支持 Paddle 框架训练模型,其他机器学习平台(Caffe、TensorFlow、ONNX、PyTorch)可通过 x2paddle 工具迁移模型。
- 支持多种网络协议:HTTP、gRPC、bRPC等多种协议。
- 支持多种语言 SDK:C++、Python、Java。
- 适配多种计算硬件:x86(Intel) CPU、ARM CPU、Nvidia GPU、昆仑 XPU、华为昇腾 310/910、海光 DCU、Nvidia Jetson等多种硬件。
- 适配多种计算硬件:x86(Intel) CPU、ARM CPU、Nvidia GPU、昆仑 XPU、华为昇腾 310/910、海光 DCU、Nvidia Jetson 等多种硬件。
- 部署平台:支持 Docker 和 Kubernetes 云端部署,提供多种环境的 Docker 开发镜像和云端部署案例。
- 具有高性能设计:基于有向无环图(DAG)的异步流水线构建高性能服务化推理框架,具有多模型组合、异步调度、并发推理、动态批量和多卡多流等设计。
- 提供模型安全部署解决方案:加密模型部署、鉴权校验、HTTPs 安全网关,并在实际项目中应用。
......@@ -17,42 +17,42 @@ Paddle Serving 是飞桨官方推荐的服务化部署框架,围绕 AI 落地
**一.环境安装**
根据计算硬件、操作系统和软件驱动版本等环境差异,要选择正确的安装程序。提供多种系统环境安装、PIP 程序安装和源码编译安装三种方案,安装完成后可使用环境检查命令验证。
根据计算硬件、操作系统和软件驱动版本等环境差异,要选择正确的安装程序。提供多种系统环境安装、pip 程序安装和源码编译安装三种方案,安装完成后可使用环境检查命令验证。
#### 1.标准环境安装方案,请参考[标准环境安装]()
#### 2.使用 PIP 安装,请参考[使用 PIP 安装]()
#### 3.源码编译安装,请参考[源码编译]()
#### 4.安装环境检查,请参考[环境检查]()
#### 1.标准环境安装方案,请参考 [标准环境安装]()
#### 2.使用 pip 安装,请参考 [使用 pip 安装]()
#### 3.源码编译安装,请参考 [源码编译]()
#### 4.安装环境检查,请参考 [环境检查]()
**二.快速开发**
环境安装完成后,参考二种模型开发示例快速开发程序,更多模型示例请参考[模型库]()。
环境安装完成后,参考二种模型开发示例快速开发程序,更多模型示例请参考 [模型库]()。
#### 1.基于 C++ Serving 的单模型 Resnet_v2_50 部署示例,请参考[Resnet_v2_50]()
#### 2.基于 Python Pipeline 多模型组合 OCR_v2 部署示例,请参考[OCR]()
**三.服务部署**
经过开发和测试后,程序要在服务器上部署,Paddle Serving 提供基于Kubernetes集群部署案例,请参考[Kubernetes集群部署]()
经过开发和测试后,程序要在服务器上部署,Paddle Serving 提供基于 Kubernetes 集群部署案例,请参考 [Kubernetes 集群部署]()
多个服务入口安全网关部署,请参考[安全网关]()
多个服务入口安全网关部署,请参考 [安全网关]()
## 功能说明
**一.基础功能**
本章节系统介绍 Paddle Serving 提供的基础功能,每种功能的使用方法和功能选项,详情请参考[基础功能]()
本章节系统介绍 Paddle Serving 提供的基础功能,每种功能的使用方法和功能选项,详情请参考 [基础功能]()
**二.进阶 C++ Serving**
本章节详细介绍 C++ Serving 的多种高级功能特性,以及设计方案、使用方法和性能调优等,详情请参考[进阶 C++ Serving]()
本章节详细介绍 C++ Serving 的多种高级功能特性,以及设计方案、使用方法和性能调优等,详情请参考 [进阶 C++ Serving]()
**三.进阶 Python Pipeline**
本章节详细介绍 Python Pipeline 的多种高级功能特性,以及设计方案、使用方法和性能调优等,详情请参考[进阶 Python Pipeline]()
本章节详细介绍 Python Pipeline 的多种高级功能特性,以及设计方案、使用方法和性能调优等,详情请参考 [进阶 Python Pipeline]()
**四.大规模稀疏参数索引服务**
本章节介绍稀疏参数索引场景,如推荐、广告系统中大规模 Embedding 查询的设计与使用方案,详情请参考[大规模稀疏参数索引服务]()
本章节介绍稀疏参数索引场景,如推荐、广告系统中大规模 Embedding 查询的设计与使用方案,详情请参考 [大规模稀疏参数索引服务]()
......@@ -3,7 +3,7 @@
## 安装说明
本说明将指导您在64位操作系统编译和安装 PaddleServing。
**强烈建议**您在**Docker 内构建** Paddle Serving,更多镜像请查看[Docker镜像列表](Docker_Images_CN.md)
**强烈建议**您在 **Docker 内构建** Paddle Serving,更多镜像请查看 [Docker镜像列表](Docker_Images_CN.md)
**一. Python 和 pip 版本:**
......@@ -91,7 +91,7 @@
# GPU CUDA 10.2环境请执行
pip3 install paddlepaddle-gpu==2.2.2
```
**注意**: 如果您的 Cuda 版本不是10.2,或者您需要在 GPU 环境上使用 TensorRT,请勿直接执行上述命令,需要参考[Paddle-Inference官方文档-下载安装Linux预测库](https://paddleinference.paddlepaddle.org.cn/master/user_guides/download_lib.html#python)选择相应的 GPU 环境的 url 链接并进行安装。
**注意**: 如果您的 CUDA 版本不是10.2,或者您需要在 GPU 环境上使用 TensorRT,请勿直接执行上述命令,需要参考[Paddle-Inference官方文档-下载安装Linux预测库](https://paddleinference.paddlepaddle.org.cn/master/user_guides/download_lib.html#python)选择相应的 GPU 环境的 url 链接并进行安装。
7. 安装完成后的环境检查
当以上步骤均完成后可使用命令行运行环境检查功能,自动运行 Paddle Serving 相关示例,进行环境相关配置校验。
......@@ -103,9 +103,7 @@
8. 更多帮助信息请参考:
**第二种安装方式:使用源代码编译安装**
- 如果您只是使用 PaddleServing ,建议使用 **pip** 安装即可。
- 如果您有开发 PaddleServing 的需求,请参考:[从源码编译]
\ No newline at end of file
- 如果您有开发 PaddleServing 的需求,请参考 [从源码编译]()
\ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册