Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
s920243400
PaddleDetection
提交
a79a5bdd
P
PaddleDetection
项目概览
s920243400
/
PaddleDetection
与 Fork 源项目一致
Fork自
PaddlePaddle / PaddleDetection
通知
2
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
PaddleDetection
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
a79a5bdd
编写于
1月 08, 2018
作者:
Y
ying
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update and follow comments.
上级
4d4df084
变更
3
隐藏空白更改
内联
并排
Showing
3 changed file
with
129 addition
and
9 deletion
+129
-9
doc/howto/usage/capi/index_cn.rst
doc/howto/usage/capi/index_cn.rst
+1
-1
doc/howto/usage/capi/organization_of_the_inputs_cn.md
doc/howto/usage/capi/organization_of_the_inputs_cn.md
+8
-8
doc/howto/usage/capi/workflow_of_capi_cn.md
doc/howto/usage/capi/workflow_of_capi_cn.md
+120
-0
未找到文件。
doc/howto/usage/capi/index_cn.rst
浏览文件 @
a79a5bdd
...
@@ -6,4 +6,4 @@ PaddlePaddle C-API
...
@@ -6,4 +6,4 @@ PaddlePaddle C-API
compile_paddle_lib_cn.md
compile_paddle_lib_cn.md
organization_of_the_inputs_cn.md
organization_of_the_inputs_cn.md
workflow_of_capi.md
workflow_of_capi
_cn
.md
doc/howto/usage/capi/organization_of_the_inputs_cn.md
浏览文件 @
a79a5bdd
## 输入/输出数据组织
## 输入/输出数据组织
这篇文档介绍在使用 PaddlePaddle C-API 时如何组织输入数据,以及如何解析神经网络前向计算的输出
数据
。
这篇文档介绍在使用 PaddlePaddle C-API 时如何组织输入数据,以及如何解析神经网络前向计算的输出
结果
。
### 输入/输出数据类型
### 输入/输出数据类型
在C-API中,按照基本数据类型在PaddlePaddle内部的定义和实现,输入数据可分为:
在C-API中,按照基本数据类型在PaddlePaddle内部的定义和实现,输入数据可分为:
1.
一维整型数组
1.
一维整型数组
2
.
二维浮点型矩阵
1
.
二维浮点型矩阵
-
稠密矩阵
-
稠密矩阵
-
稀疏矩阵
-
稀疏矩阵
...
@@ -25,8 +25,8 @@
...
@@ -25,8 +25,8 @@
-
**注**
:
-
**注**
:
1.
这篇文档之后部分将会统一使用
`argument`
来特指PaddlePaddle中神经网络计算层一个输入/输出数据。
1.
这篇文档之后部分将会统一使用
`argument`
来特指PaddlePaddle中神经网络计算层一个输入/输出数据。
2
.
使用
`paddle_ivector`
来特指PaddlePaddle中的一维整型数组。
1
.
使用
`paddle_ivector`
来特指PaddlePaddle中的一维整型数组。
3
.
使用
`paddle_matrix`
来特指PaddlePaddle中的二维浮点型矩阵。
1
.
使用
`paddle_matrix`
来特指PaddlePaddle中的二维浮点型矩阵。
### 组织输入数据
### 组织输入数据
-
一维整型数组
-
一维整型数组
...
@@ -137,8 +137,8 @@
...
@@ -137,8 +137,8 @@
**注:**
**注:**
1.
不论序列中的元素在内存中占用多少实际存储空间,
`sequence_start_positions`
表示的偏移是以“序列中的一个元素”作为统计的基本单位,而不是相对
`batch`
起始存储地址以数据的存储大小为单位的偏移。
1.
不论序列中的元素在内存中占用多少实际存储空间,
`sequence_start_positions`
表示的偏移是以“序列中的一个元素”作为统计的基本单位,而不是相对
`batch`
起始存储地址以数据的存储大小为单位的偏移。
2
.
非序列输入不携带
`sequence_start_positions`
,非序列输入无需构造
`sequence_start_positions`
。
1
.
非序列输入不携带
`sequence_start_positions`
,非序列输入无需构造
`sequence_start_positions`
。
3
.
**不论是单层序列还是双层序列的序列信息,都使用`paddle_ivector`(也就是PaddlePaddle中的一维整型数组)来存储。**
1
.
**不论是单层序列还是双层序列的序列信息,都使用`paddle_ivector`(也就是PaddlePaddle中的一维整型数组)来存储。**
图2 是PaddlePaddle中单层序列和双层序列存储示意图。
图2 是PaddlePaddle中单层序列和双层序列存储示意图。
<p
align=
"center"
>
<p
align=
"center"
>
...
@@ -149,8 +149,8 @@
...
@@ -149,8 +149,8 @@
图2 (a) 展示了一个含有4个序列的`batch`输入:
图2 (a) 展示了一个含有4个序列的`batch`输入:
1. 4个序列的长度分别为:5、3、2、4;
1. 4个序列的长度分别为:5、3、2、4;
2
. 这时的`sequence_start_positions`为:`[0, 5, 8, 10, 14]`;
1
. 这时的`sequence_start_positions`为:`[0, 5, 8, 10, 14]`;
3
. 不论数据域是`paddle_ivector`类型还是`paddle_matrix`类型,都可以通过调用下面的接口为原有的数据输入附加上序列信息,使之变为一个单层序列输入,代码片段如下:
1. 本地训练
. 不论数据域是`paddle_ivector`类型还是`paddle_matrix`类型,都可以通过调用下面的接口为原有的数据输入附加上序列信息,使之变为一个单层序列输入,代码片段如下:
```c
```c
int seq_pos_array[] = {0, 5, 8, 10, 14};
int seq_pos_array[] = {0, 5, 8, 10, 14};
...
...
doc/howto/usage/capi/workflow_of_capi.md
→
doc/howto/usage/capi/workflow_of_capi
_cn
.md
浏览文件 @
a79a5bdd
## C-API 使用流程
## C-API 使用流程
这篇文档介绍 PaddlePaddle C-API
开发预测服务的
整体使用流程。
这篇文档介绍 PaddlePaddle C-API 整体使用流程。
### 使用流程
### 使用流程
使用 C-API 的
整体工作流程分为准备预测模型和预测程序开发两部分, 如图1所示
。
使用 C-API 的
工作流程如图1所示,分为(1)准备预测模型和(2)预测程序开发两大部分
。
<p
align=
"center"
>
<p
align=
"center"
>
<img
src=
"https://user-images.githubusercontent.com/5842774/34658453-365f73ea-f46a-11e7-9b3f-0fd112b27bae.png"
width=
500
><br>
图1. C-API使用流程示意图
<img
src=
"https://user-images.githubusercontent.com/5842774/34658453-365f73ea-f46a-11e7-9b3f-0fd112b27bae.png"
width=
500
><br>
图1. C-API使用流程示意图
</p>
</p>
-
准备预测模型
-
准备预测模型
1.
将神经网络模型
结构进行序列化。
1.
只将神经网络
结构进行序列化。
-
调用C-API预测时,需要提供序列化之后的网络结构和训练好的模型参数文件
。
-
只对神经网络结构进行序列化,加载模型需同时指定:网络结构的序列化结果和模型参数存储目录
。
1.
将
PaddlePaddle训练出的模型参数文件(多个)合并成
一个文件。
1.
将
网络结构定义和训练结束存储下来的模型参数文件(多个)合并入
一个文件。
-
神经网络模型结构和训练好的模型将被序列化合并入一个文件。
-
神经网络模型结构和训练好的模型将被序列化合并入一个文件。
-
预测时只需加载
这一个文件,
便于发布。
-
预测时只需加载
一个文件
便于发布。
-
**注意**
:以上两种方式只需选择其一即可。
-
**注意**
:以上两种方式只需选择其一即可。
-
调用
PaddlePaddle
C-API 开发预测序
-
调用 C-API 开发预测序
1.
初始化PaddlePaddle运行环境。
1.
初始化PaddlePaddle运行环境。
1.
加载模型。
1.
加载
预测
模型。
1.
创建神经网络
的
输入,组织输入数据。
1.
创建神经网络输入,组织输入数据。
1.
进行前向计算,获得计算结果。
1.
进行前向计算,获得计算结果。
1.
清理。
1.
清理
和结束
。
### 准备预测模型
### 准备预测模型
在准备预测模型部分
,我们以手写数字识别任务为例,这个
任务定义了一个含有
[
两个隐层的简单全连接网络
](
https://github.com/PaddlePaddle/book/blob/develop/02.recognize_digits/README.cn.md#softmax回归softmax-regression
)
,网络接受一幅图片作为输入,将图片分类到 0 ~ 9 类别标签之一。完整代码可以查看
[
此目录
](
https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense
)
中的相关脚本。
在准备预测模型部分
的介绍,我们以手写数字识别任务为例。手写数字识别
任务定义了一个含有
[
两个隐层的简单全连接网络
](
https://github.com/PaddlePaddle/book/blob/develop/02.recognize_digits/README.cn.md#softmax回归softmax-regression
)
,网络接受一幅图片作为输入,将图片分类到 0 ~ 9 类别标签之一。完整代码可以查看
[
此目录
](
https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense
)
中的相关脚本。
调用C-API开发预测程序需要一个训练好的模型,在终端执行
`python mnist_v2.py`
调用C-API开发预测程序需要一个训练好的模型,在终端执行
`python mnist_v2.py`
运行
[
目录
](
https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense
)
会使用 PaddlePaddle 内置的
[
MNIST 数据集
](
http://yann.lecun.com/exdb/mnist/
)
进行训练。训练好的模型默认保存在当前运行目录下的
`models`
目录中。
运行
[
目录
](
https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense
)
会使用 PaddlePaddle 内置的
[
MNIST 数据集
](
http://yann.lecun.com/exdb/mnist/
)
进行训练。训练好的模型默认保存在当前运行目录下的
`models`
目录中。
下面,我们将训练
好
的模型转换成预测模型。
下面,我们将训练
结束后存储下来
的模型转换成预测模型。
1.
序列化神经网络模型配置
1.
序列化神经网络模型配置
PaddlePaddle 使用 protobuf 来传输网络配置文件中定义的网络结构和相关参数,
在使用 C-API 进行预测时,也需
将网络结构使用 protobuf 进行序列化,写入文件中。
PaddlePaddle 使用 protobuf 来传输网络配置文件中定义的网络结构和相关参数,
使用 C-API 进行预测时,需要
将网络结构使用 protobuf 进行序列化,写入文件中。
调用
`paddle.utils.dump_v2_config`中的`dump_v2_config`函数能够将使用 PaddlePaddle V2 API 定义的神经网络结构 dump 到指定文件中。
示例代码如下:
调用
[`paddle.utils.dump_v2_config`](https://github.com/PaddlePaddle/Paddle/tree/develop/python/paddle/utils/dump_v2_config.py)中的`dump_v2_config`函数能够将使用 PaddlePaddle V2 API 定义的神经网络结构 dump 到指定文件中,
示例代码如下:
```python
```python
from paddle.utils.dump_v2_config import dump_v2_config
from paddle.utils.dump_v2_config import dump_v2_config
...
@@ -47,13 +47,13 @@
...
@@ -47,13 +47,13 @@
dump_v2_config(predict, "trainer_config.bin", True)
dump_v2_config(predict, "trainer_config.bin", True)
```
```
对
本例,或运行 `python mnist_v2.py --task dump_config`,会对示例中的网络结构进行序列化,并将结果写入当前
目录下的`trainer_config.bin`文件中。
对
[手写数字识别](https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense)这个示例,[`mnist_v2.py`](https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense/mnist_v2.py)脚本集成了序列化神经网络结构的过程,可以直接运行 `python mnist_v2.py --task dump_config` 对神经网络结构进行序列化,结果会写入当前运行
目录下的`trainer_config.bin`文件中。
使用这种方式,需要**在运行时将神经网络的多个可学习参数放在同一个目录中**,C-API可以通过分别指定序列化后的网络结构文件和参数目录来加载训练好的模型。
使用这种方式,需要**在运行时将神经网络的多个可学习参数放在同一个目录中**,C-API可以通过分别指定序列化后的网络结构文件和参数目录来加载训练好的模型。
2.
合并模型文件(可选)
2.
合并模型文件(可选)
一些情况
下为了便于发布,希望能够将序列化后的神经网络结构和训练好的模型参数打包进一个文件,这时
可以使用`paddle.utils.merge_model`中的`merge_v2_model`接口对神经网络结构和训练好的参数进行序列化,将序列化结果写入一个文件内。
一些情况
为了便于发布,希望能够将序列化后的神经网络结构和训练好的模型参数打包进一个文件。对于这样的需求,
可以使用`paddle.utils.merge_model`中的`merge_v2_model`接口对神经网络结构和训练好的参数进行序列化,将序列化结果写入一个文件内。
代码示例如下:
代码示例如下:
...
@@ -66,10 +66,10 @@
...
@@ -66,10 +66,10 @@
output_file = "output.paddle.model"
output_file = "output.paddle.model"
merge_v2_model(net, param_file, output_file)
merge_v2_model(net, param_file, output_file)
```
```
对
本例,或者直接运行 `python merge_v2_model.py`,序列化结果将会写入当前目录下的`output.paddle.model`文件中。使用这种方式,运行时C-API可以通过指定output.paddle.model文件来加载
模型。
对
[手写数字识别](https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense)这个示例,可直接运行 `python` [merge_v2_model.py](https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference/dense/merge_v2_model.py)。序列化结果会写入当前运行目录下的`output.paddle.model`文件中。使用这种方式,运行时C-API可以通过指定`output.paddle.model`文件的路径来加载预测
模型。
#### 注意事项
#### 注意事项
1.
将训练模型转换成预测模型,需要序列化神经网络结构。在调用
`dump_v2_config`
时,参数
`binary`
必须指定为
`True`
。
1.
为使用C-API,在调用
`dump_v2_config`
序列化神经网络结构
时,参数
`binary`
必须指定为
`True`
。
1.
**预测使用的网络结构往往不同于训练**
,通常需要去掉网络中的:(1)类别标签层;(2)损失函数层;(3)
`evaluator`
等,只留下核心计算层,请注意是否需要修改网络结构。
1.
**预测使用的网络结构往往不同于训练**
,通常需要去掉网络中的:(1)类别标签层;(2)损失函数层;(3)
`evaluator`
等,只留下核心计算层,请注意是否需要修改网络结构。
1.
预测时,可以获取网络中定义的任意多个(大于等于一个)层前向计算的结果,需要哪些层的计算结果作为输出,就将这些层加入一个Python list中,作为调用
`dump_v2_config`
的第一个参数。
1.
预测时,可以获取网络中定义的任意多个(大于等于一个)层前向计算的结果,需要哪些层的计算结果作为输出,就将这些层加入一个Python list中,作为调用
`dump_v2_config`
的第一个参数。
...
@@ -78,21 +78,21 @@
...
@@ -78,21 +78,21 @@
预测代码更多详细示例代码请参考
[
C-API使用示例
](
https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference
)
目录下的代码示例。这一节对图1中预测代码编写的5个步骤进行介绍和说明。
预测代码更多详细示例代码请参考
[
C-API使用示例
](
https://github.com/PaddlePaddle/Paddle/tree/develop/paddle/capi/examples/model_inference
)
目录下的代码示例。这一节对图1中预测代码编写的5个步骤进行介绍和说明。
#### step 1. 初始化PaddlePaddle运行环境
#### step 1. 初始化PaddlePaddle运行环境
第一步需调用
[
`paddle_init`
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/capi/main.h#L27
)
初始化PaddlePaddle运行环境
。
该接口接受两个参数:参数的个数和参数列表。
第一步需调用
[
`paddle_init`
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/capi/main.h#L27
)
初始化PaddlePaddle运行环境
,
该接口接受两个参数:参数的个数和参数列表。
#### step2. 加载模型
#### step2. 加载模型
这里介绍C-API使用中的一个重要概念:Gradient Machine。
概念上,在 PaddlePaddle 内部一个GradientMachine类的对象管理着一组计算层(PaddlePaddle Layers)来完成前向和反向计算,并处理与之相关的所有细节。在调用C-API预测时,只需进行前向计算而无需调用反向计算。这篇文档的之后部分我们会使用
`gradient machine`
来特指调用PaddlePaddle C-API创建的GradientMachine类的对象。
这里介绍C-API使用中的一个重要概念:Gradient Machine。
每一个
`gradient machine`
都会管理维护一份训练好的模型,下面是两种最
常用的模型加载方式:
概念上,在 PaddlePaddle 内部,一个GradientMachine类的对象管理着一组计算层(PaddlePaddle Layers)来完成前向和反向计算,并处理与之相关的所有细节。在调用C-API预测时,只需进行前向计算而无需调用反向计算。这篇文档之后部分会使用
`gradient machine`
来特指调用PaddlePaddle C-API创建的GradientMachine类的对象。每一个
`gradient machine`
都会管理维护一份训练好的模型,下面是C-API提供的,两种
常用的模型加载方式:
1.
从磁盘加载:
这时
`gradient machine`
会独立拥有一份训练好的模型;
1.
调用
[
`paddle_gradient_machine_load_parameter_from_disk`
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/capi/gradient_machine.h#L61
)
接口,从磁盘加载预测模型。
这时
`gradient machine`
会独立拥有一份训练好的模型;
1.
共享自其它
`gradient machine`
的模型:
这种情况多出现在使用多线程预测时,通过多个线程共享同一个模型来减少内存开销。可参考
[
此示例
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/capi/examples/model_inference/multi_thread/main.c
)
。
1.
调用
[
`paddle_gradient_machine_create_shared_param`
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/capi/gradient_machine.h#L88
)
接口,与其它
`gradient machine`
的共享已经加载的预测模型。
这种情况多出现在使用多线程预测时,通过多个线程共享同一个模型来减少内存开销。可参考
[
此示例
](
https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/capi/examples/model_inference/multi_thread/main.c
)
。
-
注意事项
-
注意事项
1.
使用PaddlePaddle V2 API训练,模型中所有可学习参数会被存为一个压缩文件,需要手动进行解压,将它们放在同一目录中,C-API不会直接加载 V2 API 存储的压缩文件。
1.
使用PaddlePaddle V2 API训练,模型中所有可学习参数会被存为一个压缩文件,需要手动进行解压,将它们放在同一目录中,C-API不会直接加载 V2 API 存储的压缩文件。
1.
如果使用
`merge model`
方式将神经网络结构和训练好的参数序列化到一个文件,请参考此
[
示例
](
https://github.com/PaddlePaddle/Mobile/blob/develop/Demo/linux/paddle_image_recognizer.cpp#L59
)
。
1.
如果使用
`merge model`
方式将神经网络结构和训练好的参数序列化到一个文件,请参考此
[
示例
](
https://github.com/PaddlePaddle/Mobile/blob/develop/Demo/linux/paddle_image_recognizer.cpp#L59
)
。
1.
加载模型有多种方式,也可以
在程序运行过程中再加载另外一个模型。
1.
通过灵活使用以上两个接口,加载模型可其它多种方式,例如也可
在程序运行过程中再加载另外一个模型。
#### step 3. 创建神经网络输入,组织输入数据
#### step 3. 创建神经网络输入,组织输入数据
...
@@ -101,19 +101,19 @@
...
@@ -101,19 +101,19 @@
-
`Argument`
并不真正“存储”数据,而是将输入/输出数据有机地组织在一起。
-
`Argument`
并不真正“存储”数据,而是将输入/输出数据有机地组织在一起。
-
在
`Argument`
内部由:1.
`Matrix`
(二维矩阵,存储浮点类型输入/输出);2.
`IVector`
(一维数组,
**仅用于存储整型值**
,多用于自然语言处理任务)来实际存储数据。
-
在
`Argument`
内部由:1.
`Matrix`
(二维矩阵,存储浮点类型输入/输出);2.
`IVector`
(一维数组,
**仅用于存储整型值**
,多用于自然语言处理任务)来实际存储数据。
*注:本文档使用的示例任务手写数字识别不涉及一维整型数组作为输入,因此,本文档仅讨论二维稠密矩阵作为输入的情形。更多输入数据格式请参考输入/输出数据一节的内容。*
C-API支持的所有输入数据类型和他们的组织方式,请参考“输入/输出数据组织”一节。
这篇文档的之后部分会使用
`argument`
来
**特指**
PaddlePaddle C-API中神经网络的一个输入/输出,使用
`paddle_matrix`
**特指**
`argument`
中用于存储数据的
`Matrix`
类的对象。
这篇文档的之后部分会使用
`argument`
来
特指
PaddlePaddle C-API中神经网络的一个输入/输出,使用
`paddle_matrix`
**特指**
`argument`
中用于存储数据的
`Matrix`
类的对象。
于是,
在组织神经网络输入,获取输出时,需要思考完成以下工作:
在组织神经网络输入,获取输出时,需要思考完成以下工作:
1.
为每一个输入/输出创建
`argument`
;
1.
为每一个输入/输出创建
`argument`
;
1.
为每一个
`argument`
创建
`paddle_matrix`
来存储数据;
1.
为每一个
`argument`
创建
`paddle_matrix`
来存储数据;
与输入不同的是,
输出
`argument`
的
`paddle_matrix`
变量并不需在使用C-API时为之分配存储空间。PaddlePaddle内部,神经网络进行前向计算时会自己分配/管理每个计算层的存储空间;这些细节C-API会代为处理,只需在概念上理解,并按照约定调用相关的 C-API 接口即可
。
与输入不同的是,
不需在使用C-API时为输出
`argument`
的
`paddle_matrix`
对象分配空间。前向计算之后PaddlePaddle内部已经分配/管理了每个计算层输出的存储空间
。
#### step 4. 前向计算
#### step 4. 前向计算
完成上述准备之后,通过调用
`
paddle_gradient_machine_forward
`
接口完成神经网络的前向计算。
完成上述准备之后,通过调用
`
[paddle_gradient_machine_forward](https://github.com/PaddlePaddle/Paddle/blob/develop/paddle/capi/gradient_machine.h#L73)
`
接口完成神经网络的前向计算。
#### step 5. 清理
#### step 5. 清理
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录