Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
PaddlePaddle
FluidDoc
提交
d4adaa95
F
FluidDoc
项目概览
PaddlePaddle
/
FluidDoc
通知
5
Star
2
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
23
列表
看板
标记
里程碑
合并请求
111
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
F
FluidDoc
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
23
Issue
23
列表
看板
标记
里程碑
合并请求
111
合并请求
111
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
提交
d4adaa95
编写于
2月 25, 2019
作者:
H
Hao Wang
提交者:
Cheerego
2月 25, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
[to 1.3] cn api debug (#655)
* debug * fix 2 -conv2d * "锚" ==> anchor(s)
上级
335f5cd5
变更
2
展开全部
隐藏空白更改
内联
并排
Showing
2 changed file
with
143 addition
and
69 deletion
+143
-69
doc/fluid/api_cn/io_cn.rst
doc/fluid/api_cn/io_cn.rst
+15
-15
doc/fluid/api_cn/layers_cn.rst
doc/fluid/api_cn/layers_cn.rst
+128
-54
未找到文件。
doc/fluid/api_cn/io_cn.rst
浏览文件 @
d4adaa95
...
...
@@ -11,16 +11,16 @@ load_inference_model
.. py:class:: paddle.fluid.io.load_inference_model(dirname, executor, model_filename=None, params_filename=None, pserver_endpoints=None)
从指定目录中加载
推理
model(inference model)
从指定目录中加载
预测模型
model(inference model)
参数:
- **dirname** (str) – model的路径
- **executor** (Executor) – 运行 inference model的 ``executor``
- **model_filename** (str|None) –
推理
Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__``
- **model_filename** (str|None) –
存储着预测
Program 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__``
- **params_filename** (str|None) – 加载所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。
- **pserver_endpoints** (list|None) – 只有在分布式
推理
时需要用到。 当在训练时使用分布式 look up table , 需要这个参数. 该参数是 pserver endpoints 的列表
- **pserver_endpoints** (list|None) – 只有在分布式
预测
时需要用到。 当在训练时使用分布式 look up table , 需要这个参数. 该参数是 pserver endpoints 的列表
返回: 这个函数的返回有三个元素的元组(Program,feed_target_names, fetch_targets)。Program 是一个 ``Program`` ,它是
推理 ``Program``。 ``feed_target_names`` 是一个str列表,它包含需要在推理 ``Program`` 中提供数据的变量的名称。`
`fetch_targets`` 是一个 ``Variable`` 列表,从中我们可以得到推断结果。
返回: 这个函数的返回有三个元素的元组(Program,feed_target_names, fetch_targets)。Program 是一个 ``Program`` ,它是
预测 ``Program``。 ``feed_target_names`` 是一个str列表,它包含需要在预测 ``Program`` 中提供数据的变量的名称。`
`fetch_targets`` 是一个 ``Variable`` 列表,从中我们可以得到推断结果。
返回类型:元组(tuple)
...
...
@@ -39,7 +39,7 @@ load_inference_model
fetch_list=fetch_targets)
# 在这个示例中,inference program 保存在 ./infer_model/__model__”中
# 参数保存在./infer_mode 单独的若干文件中
# 加载 inference program 后, executor 使用 fetch_targets 和 feed_target_names 执行Program, 得到
推理
结果
# 加载 inference program 后, executor 使用 fetch_targets 和 feed_target_names 执行Program, 得到
预测
结果
...
...
@@ -71,13 +71,13 @@ load_params
**代码示例**
.. code-block:: python
exe = fluid.Executor(fluid.CPUPlace())
param_path = "./my_paddle_model"
prog = fluid.default_main_program()
fluid.io.load_params(executor=exe, dirname=param_path,
main_program=None)
...
...
@@ -184,19 +184,19 @@ save_inference_model
.. py:class:: paddle.fluid.io.save_inference_model(dirname, feeded_var_names, target_vars, executor, main_program=None, model_filename=None, params_filename=None, export_for_deployment=True)
修改指定的 ``main_program`` ,构建一个专门用
于推理
的 ``Program``,然后 ``executor`` 把它和所有相关参数保存到 ``dirname`` 中
修改指定的 ``main_program`` ,构建一个专门用
预测
的 ``Program``,然后 ``executor`` 把它和所有相关参数保存到 ``dirname`` 中
``dirname`` 用于指定保存变量的目录。如果变量保存在指定目录的若干文件中,设置文件名 None; 如果所有变量保存在一个文件中,请使用filename来指定它
参数:
- **dirname** (str) – 保存
推理
model的路径
- **feeded_var_names** (list[str]) –
推理
(inference)需要 feed 的数据
- **target_vars** (list[Variable]) – 保存
推理
(inference)结果的 Variables
- **dirname** (str) – 保存
预测
model的路径
- **feeded_var_names** (list[str]) –
预测
(inference)需要 feed 的数据
- **target_vars** (list[Variable]) – 保存
预测
(inference)结果的 Variables
- **executor** (Executor) – executor 保存 inference model
- **main_program** (Program|None) – 使用 ``main_program`` ,构建一个专门用于
推理
的 ``Program`` (inference model). 如果为None, 使用 ``default main program`` 默认: None.
- **model_filename** (str|None) – 保存
推理P
rogram 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__``
- **main_program** (Program|None) – 使用 ``main_program`` ,构建一个专门用于
预测
的 ``Program`` (inference model). 如果为None, 使用 ``default main program`` 默认: None.
- **model_filename** (str|None) – 保存
预测P
rogram 的文件名称。如果设置为None,将使用默认的文件名为: ``__model__``
- **params_filename** (str|None) – 保存所有相关参数的文件名称。如果设置为None,则参数将保存在单独的文件中。
- **export_for_deployment** (bool) – 如果为真,Program将被修改为只支持直接
推理
部署的Program。否则,将存储更多的信息,方便优化和再训练。目前只支持True。
- **export_for_deployment** (bool) – 如果为真,Program将被修改为只支持直接
预测
部署的Program。否则,将存储更多的信息,方便优化和再训练。目前只支持True。
返回: None
...
...
@@ -214,7 +214,7 @@ save_inference_model
target_vars=[predict_var], executor=exe)
# 在这个示例中,函数将修改默认的主程序让它适合于推断‘predict_var’。修改的
#
推理
Program 将被保存在 ./infer_model/__model__”中。
#
预测
Program 将被保存在 ./infer_model/__model__”中。
# 和参数将保存在文件夹下的单独文件中 ./infer_mode
...
...
doc/fluid/api_cn/layers_cn.rst
浏览文件 @
d4adaa95
此差异已折叠。
点击以展开。
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录