Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
Serving
提交
1200ffce
S
Serving
项目概览
PaddlePaddle
/
Serving
大约 1 年 前同步成功
通知
186
Star
833
Fork
253
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
105
列表
看板
标记
里程碑
合并请求
10
Wiki
2
Wiki
分析
仓库
DevOps
项目成员
Pages
S
Serving
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
105
Issue
105
列表
看板
标记
里程碑
合并请求
10
合并请求
10
Pages
分析
分析
仓库分析
DevOps
Wiki
2
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
1200ffce
编写于
3月 22, 2020
作者:
D
Dong Daxiang
提交者:
GitHub
3月 22, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update DESIGN_DOC.md
上级
5ca15b2f
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
2 addition
and
2 deletion
+2
-2
doc/DESIGN_DOC.md
doc/DESIGN_DOC.md
+2
-2
未找到文件。
doc/DESIGN_DOC.md
浏览文件 @
1200ffce
...
...
@@ -118,7 +118,7 @@ server.run_server()
```
#### 2.1.3 客户端访问API
Paddle Serving支持远程服务访问的协议一种是基于RPC,另一种是HTTP。用户通过RPC访问,可以使用Paddle Serving提供的Python Client API,通过定制输入数据的格式来实现服务访问。下面的例子解释Paddle Serving Client如何定义输入数据。保存可部署模型时需要指定每个输入的别名,例如
`sparse`
和
`dense`
,对应的数据可以是离散的ID序列
`[1, 1001, 100001]`
,也可以是稠密的向量
`[0.2, 0.5, 0.1, 0.4, 0.11, 0.22]`
。当前Client的设计,对于离散的ID序列,支持Paddle中的
`lod_level=0`
和
`lod_level=1`
的情况,即张量以及一维变长张量。对于稠密的向量,支持
`N-D Tensor`
。用户不
想
要显式指定输入数据的形状,Paddle Serving的Client API会通过保存配置时记录的输入形状进行对应的检查。
Paddle Serving支持远程服务访问的协议一种是基于RPC,另一种是HTTP。用户通过RPC访问,可以使用Paddle Serving提供的Python Client API,通过定制输入数据的格式来实现服务访问。下面的例子解释Paddle Serving Client如何定义输入数据。保存可部署模型时需要指定每个输入的别名,例如
`sparse`
和
`dense`
,对应的数据可以是离散的ID序列
`[1, 1001, 100001]`
,也可以是稠密的向量
`[0.2, 0.5, 0.1, 0.4, 0.11, 0.22]`
。当前Client的设计,对于离散的ID序列,支持Paddle中的
`lod_level=0`
和
`lod_level=1`
的情况,即张量以及一维变长张量。对于稠密的向量,支持
`N-D Tensor`
。用户不
需
要显式指定输入数据的形状,Paddle Serving的Client API会通过保存配置时记录的输入形状进行对应的检查。
```
python
feed_dict
[
"sparse"
]
=
[
1
,
1001
,
100001
]
feed_dict
[
"dense"
]
=
[
0.2
,
0.5
,
0.1
,
0.4
,
0.11
,
0.22
]
...
...
@@ -133,7 +133,7 @@ client.connect(["127.0.0.1:9292"])
### 2.2 底层通信机制
Paddle Serving采用
[
baidu-rpc
](
https://github.com/apache/incubator-brpc
)
进行底层的通信。baidu-rpc是百度开源的一款PRC通信库,具有高并发、低延时等特点,已经支持了包括百度在内上百万在线预估实例、上千个在线预估服务,稳定可靠。
Paddle Serving底层采用baidu-rpc的另一个原因是深度学习模型的远程调用服务通常对延时比较敏感,需要采用一款延时较低的rpc。
Paddle Serving采用
[
baidu-rpc
](
https://github.com/apache/incubator-brpc
)
进行底层的通信。baidu-rpc是百度开源的一款PRC通信库,具有高并发、低延时等特点,已经支持了包括百度在内上百万在线预估实例、上千个在线预估服务,稳定可靠。
### 2.3 核心执行引擎
Paddle Serving的核心执行引擎是一个有向无环图,图中的每个节点代表预估服务的一个环节,例如计算模型预测打分就是其中一个环节。有向无环图有利于可并发节点充分利用部署实例内的计算资源,缩短延时。一个例子,当同一份输入需要送入两个不同的模型进行预估,并将两个模型预估的打分进行加权求和时,两个模型的打分过程即可以通过有向无环图的拓扑关系并发。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录