Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Crayon鑫
Paddle
提交
0cac5391
P
Paddle
项目概览
Crayon鑫
/
Paddle
与 Fork 源项目一致
Fork自
PaddlePaddle / Paddle
通知
1
Star
1
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
1
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
P
Paddle
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
1
Issue
1
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
0cac5391
编写于
11月 23, 2016
作者:
H
hedaoyuan
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix swig_py_paddle.rst
上级
82273f60
变更
1
显示空白变更内容
内联
并排
Showing
1 changed file
with
51 addition
and
36 deletion
+51
-36
doc_cn/ui/predict/swig_py_paddle.rst
doc_cn/ui/predict/swig_py_paddle.rst
+51
-36
未找到文件。
doc_cn/ui/predict/swig_py_paddle.rst
浏览文件 @
0cac5391
PaddlePaddle的Python预测接口
基于Python的预测
==================================
================
PaddlePaddle目前使用Swig对其常用的预测接口进行了封装,使在Python环境下的预测接口更加简单。
Python预测接口
在Python环境下预测结果,主要分为以下几个步骤。
--------------
* 读入解析训练配置
PaddlePaddle使用swig对常用的预测接口进行了封装,通过编译会生成py_paddle软件包,安装该软件包就可以在python环境下实现模型预测。可以使用python的 ``help()`` 函数查询软件包相关API说明。
* 构造GradientMachine
* 准备数据
基于Python的模型预测,主要包括以下五个步骤。
* 预测
1. 初始化PaddlePaddle环境
典型的预测代码如下,使用mnist手写识别作为样例, 完整代码见
在程序开始阶段,通过调用 ``swig_paddle.initPaddle()`` 并传入相应的命令行参数初始化PaddlePaddle。
:code:`src_root/doc/ui/predict/predict_sample.py` 。
2. 解析模型配置文件
初始化之后,可以通过调用 ``parse_config()`` 解析训练模型时用的配置文件。注意预测数据通常不包含label, 同时预测网络通常直接输出最后一层的结果而不是像训练网络一样再接一层cost layer,所以一般需要对训练用的模型配置文件稍作相应修改才能在预测时使用。
.. literalinclude:: ../../../doc/ui/predict/predict_sample.py
3. 构造paddle.GradientMachine
:language: python
通过调用 ``swig_paddle.GradientMachine.createFromConfigproto()`` 传入上一步解析出来的模型配置就可以创建一个 ``GradientMachine``。
:lines: 15-18,90-100,101-104
4. 准备预测数据
swig_paddle中的预测接口的参数是自定义的C++数据类型,py_paddle里面提供了一个工具类 ``DataProviderConverter`` 可以用于接收和PyDataProvider2一样的输入数据并转换成预测接口所需的数据类型。
主要的软件包为py_paddle.swig_paddle,这个软件包文档相对完善。可以使用python的
5. 模型预测
:code:`help()` 函数查询文档。主要步骤为:
通过调用 ``forwardTest()`` 传入预测数据,直接返回计算结果。
* 在程序开始阶段,使用 :code:`swig_paddle.initPaddle()` 传入命令行参数初始化
PaddlePaddle。详细的命令行参数请参考
基于Python的预测Demo
`命令行参数 <../cmd_argument/detail_introduction.html>`_ 。
--------------------
* 接下来使用 :code:`parse_config()` 解析训练时的配置文件。这里要注意预测数据通常
不包含label, 而且预测网络通常直接输出最后一层的结果而不是像训练时一样以cost
如下是一段使用mnist model来实现手写识别的预测代码。完整的代码见 ``src_root/doc/ui/predict/predict_sample.py`` 。mnist model可以通过 ``src_root\demo\mnist`` 目录下的demo训练出来。
layer作为输出,所以用于预测的配置文件要做相应的修改。
* 使用 :code:`swig_paddle.GradientMachine.createFromConfigproto()` 根据上一步解
.. code-block:: python
析好的配置创建神经网络。
* 创建一个 :code:`DataProviderConverter` 对象converter。
from py_paddle import swig_paddle, DataProviderConverter
- swig_paddle接受的原始数据是C++的Matrix,也就是直接写内存的float数组。
from paddle.trainer.PyDataProvider2 import dense_vector
这个接口并不用户友好。所以,我们提供了一个工具类DataProviderConverter。
from paddle.trainer.config_parser import parse_config
这个工具类接收和PyDataProvider2一样的输入数据,详情请参考
`PyDataProvider2文档 <../../../doc/ui/data_provider/pydataprovider2.html>`_ 。
TEST_DATA = [...]
* 最后使用 :code:`forwardTest()` 直接提取出神经网络Output层的输出结果。典型的输出结果为\:
def main():
conf = parse_config("./mnist_model/trainer_config.py", "")
network = swig_paddle.GradientMachine.createFromConfigProto(conf.model_config)
assert isinstance(network, swig_paddle.GradientMachine) # For code hint.
network.loadParameters("./mnist_model/")
converter = DataProviderConverter([dense_vector(784)])
inArg = converter(TEST_DATA)
print network.forwardTest(inArg)
if __name__ == '__main__':
swig_paddle.initPaddle("--use_gpu=0")
main()
Demo预测输出如下,其中value即为softmax层的输出。由于TEST_DATA包含两条预测数据,所以输出的value包含两个向量 。
.. code-block:: text
.. code-block:: text
...
@@ -45,4 +60,4 @@ PaddlePaddle目前使用Swig对其常用的预测接口进行了封装,使在P
...
@@ -45,4 +60,4 @@ PaddlePaddle目前使用Swig对其常用的预测接口进行了封装,使在P
2.70634608e-08, 3.48565123e-08, 5.25639710e-09,
2.70634608e-08, 3.48565123e-08, 5.25639710e-09,
4.48684503e-08]], dtype=float32)}]
4.48684503e-08]], dtype=float32)}]
其中,value即为softmax层的输出。由于数据是两条,所以输出的value包含两个向量 。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录